我打算为我们的主要办公室部署一个具有成本效益但性能卓越的SAN / NAS设置。 用例:存储20-30个用户的VDI部署,文件服务器,主备份位置。 所需的可用容量= 10TB。
存储软件对手尚未考虑。 现在我正在研究底层存储硬件的可能configuration。 我已经比较了基于10K RPM SAS的RAID10设置(10x2TB HDD)和SATA SSD RAID5configuration(7x 1.6TB SSD)的价格。 有趣的是,如果使用读取密集型驱动器,SSD设置便宜20%,如果select混合使用驱动器,则成本要高出10%。 这意味着全闪存RAID5看起来像是一个可行的select,至less在纸面上。
不过,很久以前,我经历了一个“好老”5x 70GB SCSI硬盘configuration的RAID5麻烦。 即使是现在,那东西仍然给我噩梦。 而且,我忽略了一些像This和This这样的线程,看起来好像有些人确信我的“全闪存RAID5”计划不起作用。
所以,问题是:你们对这个话题有什么好的看法,或者你们可以分享一下你们的个人使用RAID5固态硬盘的经验吗? 提前谢谢了!
根据我对这种产品的经验,我推荐使用RAID5固态硬盘,因为这种实现可以有效地利用存储性能。 此外,由于使用了快速驱动器,因此该设置最大限度地减less了RAID重build。
对于这个项目,如果你的产品更多的是2-3个主机和4个以上节点集群的软件RAID,那就去硬件RAID。
我同意@pming在寻找使用ZFS作为文件系统。 它会给你一些你可能感兴趣的好select,例如:重复数据删除,各种压缩选项,快照,复制(到另一个池或系统进行备份),…另一个需要考虑的事情是使用ZFS, SSD驱动器并为读取或写入caching添加SSD。
如果你使用RAID5来帮助防止数据丢失的话,也可以考虑在RAID5上使用至lessRAID5(ZFS说的raidz2)(ZFS说的raidz)。
你的一些评论意味着你打算build立一个种植系统来处理你的办公室的需求。 但也略微暗示您可能会从供应商处购买arrays或解决scheme。 – 你可能想澄清。
Nexenta为利用ZFS构build存储系统提供了一个很好的解决scheme。
我在这个类似的空间上使用了ZFS。 是的,我把它用于VDI / ESX。 不,我不认为你应该使用raid6,因为它太多的空间开销, 如果您将跨度使用5个磁盘的vdevs(将冷数据问题降到最低),那么raid5就足够了,因此有效地使用raid50configuration,因为ZFS总是在可能的情况下对其数据进行分条。 如果您对冷数据持谨慎态度,请定期使用擦洗(实际上,即使您不谨慎也要使用擦洗)。 尽pipe冷数据也是raid6的一个问题。
另外请记住,在ZFS中有很多开销,你必须保持不超过85%的池(或者可能使用专用的日志设备,这部分地消除了这个问题)。 此外,如果您打算使用zvols ,请记住,您必须使用至less比扇区大8倍的volblocksize ,并且这种要求不会自动满足更新的AF驱动器(您可能会得到这个数量的空间)。
除此之外,SSD在ZFS / raid5上也是如此。
PS不惜一切代价避免Sandisk。
我build议为此使用ZFS。 如果您需要一个盒子来满足不同的使用情况,ZFS使您能够构build不同的存储池。 您可以为VDI创build带有4个SSD的镜像条带zpool(类似于RAID 10),使用一些较大的10k或15k驱动器用于文件服务,以及一些更大的7.2k驱动器用于备份池。
例如:
对于VDI,4 x 400 GB SSD镜像条带= 0.8 TB
5 x 1 TB 10K SAS raidz1(类似于RAID5)= 4 TB(SMB,AFP,NFS)
5 x 2 TB 7.2K SATA / SAS raidz1 = 8 TB备份(与快速的企业级SSD相比,这些价格相当便宜,也许您不需要这样的备份速度)?
这实际上取决于每个用例需要多less容量。