用于ZFS的JBOD服务器,无需专用引导驱动器

我正在考虑购买使用openAttic的低成本的机器,它只是使用ZFS的Ubuntu 14.04 64bit。

我在看的服务器给了我8个3.5“,我计划把SAS 7.2K企业级硬盘,可能是3TB或4TB,我打算从18TB到24TB的可用空间,有2个硬盘冗余。至less会得到32GB的ECC内存,但是我会看64Gb的成本。

我对ZFS经验不足,但最初我的计划是使用ext4在所有驱动器上镜像的小型启动和系统分区。 然后使用剩余的空间用于ZFS。

该服务器有一个M.2插槽:我应该得到一个M.2 SSD那里用作启动/系统驱动器? OpenATTIC对于系统分区的需求非常小,因此,当RAM和SAS驱动器将完成大部分工作并成为瓶颈时,获得高端SSD成为一种浪费。

我已经读过ZFS喜欢直接访问磁盘,所以我想知道:当你configuration它不使用整个磁盘时,ZFS可以工作吗? 还是应该得到SSD,让ZFS占用所有的SAS磁盘?

如果钱不是一个限制,当然我得到的SSD,但我正在寻找“最物有所值”。 谢谢!

对于这种规模的东西,使用一个单独的驱动器或一对驱动器的操作系统。 也许M.2 SSD插槽是最合适的。

为ZFS提供完整的磁盘,不要尝试将操作系统分散到这些驱动器中。

对于家庭规模,不要听取所有的build议,以获得ZIL和L2ARC。 ZIL仅用于同步写入,而L2ARC被高估。 你有一个很好的RAM计数,这就是你应该最大化。

你有几个select:

  • 便宜的USB 2.0棒:不推荐,因为它们速度很慢,写入操作很快就会杀死其中的大部分,例外:像SmartOS(用于ZFS)或ESXi(仅作为示例)的只读系统启动或每小时一次,并将所有其他内容保存在RAM或数据池中。
  • 使用SLC内存或USB 3.0硬盘的更昂贵的USB 3.0棒:尽pipe在大多数系统上都没有正式的支持,但它工作得很好。 我build议镜像这些驱动器,这也使得无缝升级和备份容易。
  • SATA或M.2磁盘/ SSD:可能浪费宝贵的空间,更昂贵,但没有问题。 我会build议一个镜像对,如果你能负担得起。 最适合大多数情况下,空间和金钱不是最重要的限制。 最好的select将是全功率损失保护(如英特尔730和所有S3xxx / DC3xxx版本)。
  • NFS / iSCSI挂载:如果您有几个没有剩余空间/端口的盒子,并且希望进行集中pipe理/configuration,则很有趣。 通过PXE启动,然后映射networking驱动器并使用它们。 几乎所有的服务器网卡都支持这一点,但是您需要单独的服务器来提供服务。

我个人的build议是:

  • 如果你只有一个普通的文件pipe理器设置,并希望达到1Gbps的饱和度:使用2个SLC USB存储棒,如MX-ES型号(外部)或两个小型SATA英特尔SSD(内部)
  • 如果设置较大,需要高性能,快速更换故障磁盘,可能存在虚拟化或高正常运行时间要求:使用带有2个带有断电保护的英特尔固态硬盘的常规机箱
  • 如果您拥有/增加大量机器并想节省时间/金钱,请考虑使用SmartOS(针对此用例构build)或通过PXE使用networking启动

我已经读过ZFS喜欢直接访问磁盘,所以我想知道:当你configuration它不使用整个磁盘时,ZFS可以工作吗? 还是应该得到SSD,让ZFS占用所有的SAS磁盘?

build议您为您的池使用整个磁盘:

对于生产系统,由于以下原因,使用整个磁盘而不是存储池:

  • 允许ZFS为具有写入caching的磁盘启用磁盘的写入caching。 如果您正在使用具有非易失性写入caching的RAIDarrays,那么这不是一个问题,而切片作为vdevs仍然应该获得arrays写入caching的好处。
  • 对于具有启用磁盘高速caching的JBOD附加存储,允许发出一些同步写入,因为多个磁盘写入之后是单个高速caching刷新,允许磁盘控制器优化I / O调度。 另外,对于缺less对SATA NCQ或SCSI TCQ的适当支持的系统,具有启用的写入caching允许主机从物理I / Oasynchronous地发出单个I / O操作。
  • 当磁盘同时包含片上的ZFS和UFS文件系统时,更换故障磁盘的恢复过程更为复杂。
  • 也包含片上的UFS文件系统的ZFS池(和底层磁盘)不能通过使用zpool导入和导出function轻松迁移到其他系统。
  • 一般来说,保持切片会增加pipe理时间和成本。 通过简化存储池configuration模型来降低pipe理成本。