我们的旧32TB RAID6(networking容量:26TB)系统正在显示其年龄,需要升级,所以我们正在考虑build立一个新的100TB系统。
存储主要用于我们用户的家庭总监,共享项目数据(与媒体合作,所以项目可以达到1TB),以及
旧的存储通过iSCSI连接到Debian主机; 文件服务器通过NFS (对于un * x主机)和SMB (对于W32)导出数据。 出于实际的原因,我们希望保持这一点。
在过去,我们发现项目数据在意外的情况下增长,所以我们使用一个平面的存储池,所有的项目(和家庭)位于同一个文件系统中(而不是预先分配一定数量的存储容量给一个给定的项目,然后在达到极限时不得不重新分配)。 虽然这是一个简单而灵活的解决scheme,但我记得甚至在使用旧的设置时也遇到了一些限制。 在旧的RAID系统上最大的分区是20TB,因为xfs不允许我创build一个更大的文件系统(那时候,不要谈论ext4 ,而且我没有真正考虑zfs或btrfs ,而且还没有) 。
由于我并没有特别关注存储方面的最新进展,所以目前在创build这种中型存储方面的最佳做法是:JBOD,LVM,RAID,分布式文件系统; 堆叠哪个? 有些博客表示, 无论如何 , RAID6已经过时了 ,但有什么select?
我的要求是:
iSCSI的
可扩展性:理想情况下,这样一个系统将允许增长(例如,我开始使用70TB,然后购买磁盘,直到我达到满负荷,堆栈扩展:文件系统增长,数据仍然存储冗余,希望没有less数独立的RAID6系统)。
去ZFS。 如果你想Debian ZoL是你最好的朋友。
RAID 6远没有过时 – 但是RAID 5是。 我不是单控制器存储的粉丝,你看到的是单点故障,但是如果你对此感到满意,那么通过一切手段继续进行与现在类似的操作。 当然,你现在可能select的是某种forms的基于闪存的前端(无论是通过caching还是分层),这取决于你想要实际进行RAID的位置 – 我喜欢硬件控制器,而不是。 无论哪种方式,如果你可以达到你的IO的90%来自/闪存(SSD / NVME等),那么你的用户将会非常高兴。