单个驱动器的缺点是拆分成ZFS raidz1的分区和分区,而带有数据重复的单个驱动器ZFS?

我正在寻找一个最小的ZFS设置来实现单个设备上的自我修复。 由于我备份我的数据,驱动器故障并不担心,但是, 到目前为止,我已经能够提出的唯一build议是指向copies=2选项,但是将可用容量削减了50%。

我的问题:将设备分成8个分区并将其连接到7 + 1 RAID-Z1arrays中有什么缺点(性能除外)? 这意味着可用空间减less了12.5%。 当我在这时,为什么不去19 + 1或99 + 1(或任何分区表允许)?

从ZFS最佳实践指南 :

对于生产系统,由于以下原因,使用整个磁盘而不是存储池:

  • 允许ZFS为具有写入caching的磁盘启用磁盘的写入caching。 如果您正在使用具有非易失性写入caching的RAIDarrays,那么这不是一个问题,而切片作为vdevs仍然应该获得arrays写入caching的好处。
  • 对于具有启用磁盘高速caching的JBOD附加存储,允许发出一些同步写入,因为多个磁盘写入之后是单个高速caching刷新,允许磁盘控制器优化I / O调度。 另外,对于缺less对SATA NCQ或SCSI TCQ的适当支持的系统,具有启用的写入caching允许主机从物理I / Oasynchronous地发出单个I / O操作。
  • 当磁盘同时包含片上的ZFS和UFS文件系统时,更换故障磁盘的恢复过程更为复杂。 也包含片上的UFS文件系统的ZFS池(和底层磁盘)不能通过使用zpool导入和导出function轻松迁移到其他系统。
  • 一般来说,保持切片会增加pipe理时间和成本。 通过简化存储池configuration模型来降低pipe理成本。

综上所述,正确处理,更换和增长要慢得多,也更困难。

另外,你还需要关心你的游泳池布局。 RAIDZ1设置在更换切片时仍然会受到RAID5写入问题的困扰,如果您为RAIDZ级别select非最佳切片数量(也可以参考指南中的build议),它仍然会受到影响:

  • (N + P),其中P = 1(raidz),2(raidz2)或3(raidz3),N等于2,4或6
  • build议每个组的磁盘数量在3到9之间。如果有更多的磁盘,请使用多个组。