ZFS 100TB硬件设置

我们收到了以下服务器设置的报价:

  • 英特尔至强E5-2609V2
  • 2 x WD RE 2TB SATA III
  • 34 x WD RE 4TB SAS II
  • 32 GB内存(ECC)
  • LSI MegaRAID 9271-8i批量,8 x SATA III / SAS II内部硬件RAID
  • LSI CacheVault voor 9266-9271系列

我们要添加(直接) JBOD到该服务器,一半填充8TB驱动器,我们可以延迟。 他们build议:

  • LSI MegaRAID 9380-8e
  • SAS HXST Ultrastar 8TB He8企业22台

现在这是基于我们以前的服务器,我们设置为ZFS服务器,并没有太多的“乐趣”。 (虽然configuration是我猜的怪)

我有一些关于这个设置的问题: – 采取2x2TB的参数是,将其用作系统的镜像,因为当磁盘需要被replace时,IO在重build期间是缓慢的。 速度不是我们真正的问题,空间是,也是我们有一个在线备份,这将只被用作读取平台(在问题)。 36 x 4TB会是更好的select吗? (36 = 3 * 12磁盘池) – 是32 Gb的内存不够? (在Linux上的ZFS,考虑JBOD在最大容量44 * 8 + 32 * 4) – 这是一个RAID控制器,JBOD / HBA(?)将是一个更好的select? 如果是这样,我应该寻找什么样的JBOD? – 我如何最好地设置这个系统来“准备好”升级JBOD中的下一个22个磁盘? (它的一个44磁盘JBOD,22个插槽被填充)

一些基于评论的更多信息:

  • 正常运行时间/可用性:我们不在乎它是否会退出几分钟,只要这不是所有的共同点。 没有医pipe局需要。 实质上,这将是我们当前存储服务器的热备份。 我们主要读写不受速度的限制。 (到目前为止)
  • 阅读速度很重要,但我们不想放弃空间
  • 写入速度并不那么重要,主要是来自机器的数据stream,而大文件则写在那里,因此可以在一夜之间运行。

我将与一位专注于基于ZFS的解决scheme的ZFS专业人员或供应商合作。 你在谈论100TB的数据,在这个规模上,有太多的机会搞砸了。

ZFS不是一件容易的事情, 特别是当您将高可用性和devise用于恢复能力时。

我不打算半填充存储机柜或类似的东西。 使用RAIDZ1 / 2/3扩展ZFSarrays并不容易,扩展ZFS镜像可能会导致数据不平衡。

我不确定我会在Linux上使用ZFS来做这样的设置,因为ZoL仍然是一个有点“移动的目标”。

关于你的RAID卡,如果它可以在JBOD中configuration,没有问题。 但是,如果它只能在RAID模式下工作,那么我会将其更改为JBOD / HBA适配器。

无论如何,正如ewwhite所build议的,我会问一个专业的ZFS verdor /顾问。