既然Windows Server 2012带有NTFS卷的重复数据删除function,我很难find有关它的技术细节。 我可以从TechNet文档中推断,重复数据删除操作本身是一个asynchronous进程 – 与SIS Groveler的工作方式没有什么不同 – 但实际上没有关于实现的详细信息(使用的algorithm,所需的资源,甚至性能方面的信息考虑只是一堆经验法则式的build议)。 我们非常感谢洞察力和指针,与Solaris的ZFS重复数据删除效率相比,一系列的情况将是非常好的。
有没有一种方法可以提示ZFS将zpool中的所有磁盘重新分配给定的文件系统? 我在考虑一个场景,我有一个固定大小的ZFS卷,通过FC导出为一个LUN。 当前zpool很小,只有两个1TB的镜像磁盘,zvol总共是750GB。 如果我突然将zpool的大小扩大到12个1TB的磁盘,我相信zvol仍然只能安装在前两个主轴上。 考虑到更多的主轴=更多的IOPS,我可以使用什么方法来重新分配所有12个主轴上的zvol来利用它们?
Linux上的ZFS是否已经支持encryption? 如果没有,是否计划? 我发现了大量的ZFS + LUKS的信息,但这绝对没有意义:我想要ZFSencryption,以便我可以使用zfs发送到“不受信任”的备份服务器进行复制。 即,zfs发送片段应该被encryption。 如果ZoL不支持encryption,除了创buildzVols和在其上使用LUKS + EXT之外,是否还有一种更优雅的方式(失去许多ZFS优势)?
使用zfs时,如果您拥有copies=2 ,然后丢失了包含其中一些副本的驱动器,那么如何告诉系统它应该为受影响的文件创build一个新的数据块副本? 或者,只要zfs发现坏数据块,就开始为额外的副本添加数据块? 擦洗会干吗? (v0.6.0.56-rc8,ZFS池版本28,ZFS文件系统版本5,Ubuntu 11.10)
我使用ZFS为我的主文件服务器运行OpenSolaris。 我原本是和ZFS一起去的,因为我听说了很多很棒的东西: 自动磁盘跨越(zpools) 软件RAID(RAID-Z) 通过replaceRAIDZ'd磁盘来自动调整池大小 块级校验和 没有实际的单量限制 “即将推出”重复数据删除 在OpenSolaris上玩了一段时间之后,它真的让我感到困扰。 我知道Fedora / CentOS和Debian / Ubuntu要好得多,我已经习惯了Linux的方式,比如Solaris和BSD版本。 我想切换到Linux,但我不知道如何使用我的FS。 我不愿意使用FUSE或pre-beta内核来获取ZFS。 Btrfs具有潜在的特性平衡,但是现在还是不稳定(在我第一次研究它的几个月后)。 对于Linux机器,你推荐什么等同于ZFS(上面提到的特性)?
我刚刚将一个批量数据存储池(Linux 0.6.2上的ZFS,Debian Wheezy)从单设备vdevconfiguration迁移到双向镜像vdevconfiguration。 以前的池configuration是: NAME STATE READ WRITE CKSUM akita ONLINE 0 0 0 ST4000NM0033-Z1Z1A0LQ ONLINE 0 0 0 一切都很好,在完成重组后(我在重组完成后开始擦洗,只是为了让系统再次检查一切,确保一切正常): pool: akita state: ONLINE scan: scrub repaired 0 in 6h26m with 0 errors on Sat May 17 06:16:06 2014 config: NAME STATE READ WRITE CKSUM akita ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 […]
我最近将一个非重复的zfs文件系统上的checksum属性从on (fletcher4)更改为sha256 ,以便更好地支持发送重复的复制stream,如本命令zfs send -DR -I _starting-snaphot_ _ending-snapshot_ 。 但是,zfs手册页有关send -D说法: 无论数据集的重复数据删除属性如何,都可以使用此标志,但如果文件系统使用可执行重复数据删除的校验和(例如,sha256),则性能会更好。 zfs手册页也说明了关于checksum属性: 更改此属性只会影响新写入的数据。 我不想相信fletcher4。 与SHA256不同的是,fletcher4不是一个伪随机散列函数,因此不会被信任而不会相互冲突。 因此,只有在与“validation”选项结合使用时才适用于重复数据删除,该选项可检测并解决散列冲突。 我怎么能更新文件系统的校验和,最好不离线系统?
我通过点对点的T1线路发送增量式ZFS快照,我们希望在下一次备份开始之前,一天的快照几乎不能通过networking。 我们的send / recv命令是: zfs send -i tank/vm@2009-10-10 tank/vm@2009-10-12 | bzip2 -c | \ ssh offsite-backup "bzcat | zfs recv -F tank/vm" 我有足够的CPU周期来备用。 有没有更好的压缩algorithm或替代方法,我可以用来推送更less的数据在线?
我一直在使用OpenSolaris和ZFS 6个月,主要是在Sun Fire x4540和标准的戴尔和惠普硬件上。 标准Perc和HP Smart Array控制器的一个缺点是,它们没有真正的“直通”JBOD模式来将单个磁盘呈现给ZFS。 可以configuration多个RAID 0arrays,并使它们在ZFS中工作,但会影响热插拔function(因此需要在磁盘故障/更换时重新启动)。 我很好奇什么SAS / SATA控制器推荐用于家庭酿造的ZFS存储解决scheme。 另外,电池供电写caching(BBWC)在ZFS存储中有什么作用?
我有一个新的服务器,并计划升级微小的2 GB的内存最高16 GB。 (理论上8GB是有限制的,但实际上16GB已经显示出来了。) 一些指导build议ECC内存不是那么重要,但我不确定我是否相信这一点。 我已经安装了FreeNAS,并计划在我的新硬盘驱动器到来时立即添加ZFS卷。 对于基于ZFS的NAS来说,吝啬一点,并获得非ECC内存是不是愚蠢? 如果有必要的话,我会咬死子弹,但如果只是偏执狂,那么我可能会跳过它。 是否有任何原因ZFS或FeeeNAS 明确要求ECC内存,或者在使用非ECC内存的系统上运行时尤其受到影响?