问题 我想在Linux上的SSD磁盘内的交换分区上启用后台 TRIM操作。 根据几篇文章,例如这个 ,内核检测到这个configuration并且自动执行丢弃操作,但是在我的testing中似乎没有工作,尽pipe使用了“discard”挂载选项来强制这个行为。 脚本 Debian Wheezy运行Linux 3.2.0 SSD磁盘:1 x 120GB OCZ Vertex 3 MI 2GB交换“普通”分区,无其他层(LVM,RAID等) 背景 以下是检查背景TRIM是否在交换分区上工作的步骤: TRIM支持 :检查SSD磁盘是否支持TRIM命令,内核将设备标记为非旋转: # hdparm -I /dev/sda | grep TRIM * Data Set Management TRIM supported (limit 1 block) * Deterministic read data after TRIM # cat /sys/block/sda/queue/rotational 0 交换填满 :挂载分区,清理所有虚拟机高速caching,并configurationLinux以积极地将vm.swappiness设置为100.然后,运行一个脚本来分配所有可用的内存,并强制内核开始交换: # swapon [–discard] /dev/sda2 # echo […]
我有一个最初从t1.micro linux创build的AMI。 此AMI的“根设备types”是EBS(8 GB),我的Web应用程序软件“烘焙”到此根卷中。 现在我想从这个AMI启动一个m3.medium实例,但是它有4GB SSD的“实例存储”。 我新推出的m3.medium实例是否会充分利用SSD存储? 或者是否需要创build一个新的“Instance Store”作为根“根设备types”的AMI? 同样…当我尝试使用“Amazon Linux AMI 2013.09.2”从头开始启动m3.medium时,它默认添加了一个8GB根EBS卷,无法使用启动向导将其删除。 我在这里错过了什么?
我有一个作为NexentaStor存储单元运行的HP ProLiant DL380 G7服务器 。 服务器有36GB RAM,2个LSI 9211-8i SAS控制器(无SAS扩展器),2个SAS系统驱动器,12个SAS数据驱动器,热备份磁盘,Intel X25-M L2ARCcaching和DDRdrive PCI ZIL加速器。 该系统为多个VMWare主机提供NFS服务。 arrays上还有大约90-100GB的重复数据删除数据。 我遇到了两个突然性能下降的事件,VM guest虚拟机和Nexenta SSH / Web控制台无法访问,需要完全重新启动arrays才能恢复function。 在这两种情况下,都是英特尔X-25M L2ARC固态硬盘失败或“脱机”。 NexentaStor在caching失败时未能提醒我,但在(无响应)控制台屏幕上可以看到一般的ZFS FMA警报。 zpool status输出显示: pool: vol1 state: ONLINE scan: scrub repaired 0 in 0h57m with 0 errors on Sat May 21 05:57:27 2011 config: NAME STATE READ WRITE CKSUM vol1 ONLINE 0 0 […]
我正在用ESXi服务器replaceKVM服务器。 我刚刚安装了ESXi 5.5u1并添加了一个数据存储。 新服务器使用硬件RAID在RAID 6中有4个SSD驱动器。 当我添加数据存储时,VMware表示该存储是非ssd的。 这是正常的吗? 很显然,VMware正在看到RAID卡暴露的虚拟磁盘,而不是SSD本身。 如果VMware被告知这些是固态硬盘以获得最佳性能? 还是应该只留给RAID卡? 我最担心的是TRIM。
我正在使用英特尔X25-E SSD作为具有16 GB RAM的Windows Server 2008 R2服务器的系统驱动器。 将页面文件移动到自己的驱动器是否是一个好习惯? 如果是这样,对于页面文件驱动器,是否会有一个首选的SSD或传统的硬盘驱动器? 存储configuration还包括两个数据卷,每个数据卷均在连接到PERC 5 / i集成RAID控制器的4磁盘RAID 10arrays上实施。 该服务器是Dell PowerEdge 2900.它在背板上有10个插槽,一个用于SSD,八个用于RAID 10arrays,另外一个空插槽可用于页面文件驱动器。 谢谢。
我们在Linux(RHEL 5)服务器上运行SSD(英特尔X25-M)已经有一段时间了,但是从来没有努力去弄清楚过去一年的写入负载是多less。 在Linux下有没有什么工具可以告诉我们大概多less时间已经写入磁盘,或者(甚至更好)多less累积了什么? 只是寻找一个提示,看看它是否接近死亡或…
与这个问题有关使用一个SSD的系统和硬盘的数据 ,除了我希望我的系统自动执行此操作… 使用最好的免费开放源代码软件是否可以在它们之间自动存储和推送物品? 我知道像EMC SAN-> EMC Centera自动归档这样的非常昂贵的企业级解决scheme,但是我想知道这种分阶段存储是否可以自动完成。 这将是很高兴能够有几层:内存 – > SSD – >硬盘 – >较慢的硬盘或磁带或其他档案的解决scheme。 有没有可以自动执行此操作的文件系统? (ZFS,Btrfs,HAMMER?) 任何Unixvariables都是好的,因为我对这是如何工作感兴趣,以及它是否可以移植到Linux或其他口味(BSD等)。
磁铁对接触硬盘和固态硬盘有什么作用?
什么是销毁固态硬盘的可重复方式? 例如,如果我打开它,哪个部分可以取出并销毁数据(如何识别实际的“存储单元”)? 案例1.普通用户想要合理确信他们的数据不容易被恢复? 情况2.考虑到数据是敏感的,驱动器已经被encryption。 要求数据永远不可恢复,这意味着encryption本身不足以满足要求。 意图 :固态硬盘是电子相比,其机械相对应,所以在问题的答案如何销毁硬盘? 由于其固有的差异而不适用。 我都是基于这个问题更新原来的问题(使之成为规范),然后把它作为一个重复来处理。
在较早的操作系统(CentOS 5.5)上使用现代内核(当前为2.6.37),以便我们可以在我们的SSD(Crucial C300)上获得TRIM(丢弃)。 最近的hdparm(9.37)认为C300支持TRIM: ./hdparm -I /dev/sdc | grep TRIM * Data Set Management TRIM supported (limit unknown) * Deterministic read data after TRIM 但是,当我尝试使用discard选项来挂载/ dev / sdc时,内核似乎并不一致: EXT4-fs warning (device sdc): ext4_issue_discard:2619: discard not supported, disabling 我们正在尝试其他的Linux风格,但是不pipe怎样,知道发生了什么都是很好的。 这是CentOS 5.5的一些其他古老组件的一种performance,它误导了内核? 也许是hdparm使用与内核不同的机制来确定是否支持TRIM?