Articles of ZFS

ZFS和caching设备

我将把SSD驱动器添加到我的ZFS存储器中作为caching。 任何人有这方面的经验? 如果caching设备死了会怎么样,这些数据会受到影响?

ZFS – 销毁重复数据删除的zvol或数据集会阻止服务器。 如何恢复?

我在使用12个Midline(7200 RPM)SAS驱动器的HP ProLiant DL180 G6上运行的辅助存储服务器上使用Nexentastor。 该系统有一个E5620 CPU和8GB RAM。 没有ZIL或L2ARC设备。 上周,我创build了750GB稀疏zvol,并启用了重复数据删除和压缩function,通过iSCSI将其共享到VMWare ESX主机。 然后,我创build了Windows 2008文件服务器映像,并将大约300GB的用户数据复制到VM。 一旦系统满意,我将虚拟机移动到同一个池上的NFS存储。 一旦在NFS数据存储上运行我的虚拟机,我决定删除原来的750GB zvol。 这样做使系统停滞不前。 访问Nexenta网页界面和NMC停止。 我终于能够得到一个生壳。 大多数操作系统操作都很好,但系统挂在zfs destroy -r vol1/filesystem命令上。 丑陋。 我发现了以下两个OpenSolaris bugzilla条目,并且现在明白了该机器将会在未知的时间段内变砖。 已经14个小时了,所以我需要一个能够重新获得服务器访问权的计划。 http://bugs.opensolaris.org/bugdatabase/view_bug.do?bug_id=6924390 和 http://bugs.opensolaris.org/bugdatabase/view_bug.do;jsessionid=593704962bcbe0743d82aa339988?bug_id=6924824 将来,我可能会采取一些buzilla解决方法给出的build议: Workaround Do not use dedupe, and do not attempt to destroy zvols that had dedupe enabled. 更新:我不得不强制系统closures。 重新引导后,系统在Importing zfs filesystems系统中停顿。 现在已经是这样2个小时了。

文件大小与zfs压缩

我通常使用du -ks $DIRECTOY_TREE_ROOT来估计整个目录树的大小,但是当打开zfs压缩时,不能使用这个方法。 ls -l显示的total对于单个目录来说是可以的,但是对目录树得到相同结果最简单的方法是什么? 编辑: 操作系统是Solaris 10。 我正在寻找真正的文件大小,而不是磁盘上使用的空间。

需要更换磁盘zpool …困惑

我需要更换FreeNAS zpool上的坏磁盘。 zpool status显示 pool: raid-5×3 state: ONLINE scrub: scrub completed after 15h52m with 0 errors on Sun Mar 30 13:52:46 2014 config: NAME STATE READ WRITE CKSUM raid-5×3 ONLINE 0 0 0 raidz1 ONLINE 0 0 0 ada5p2 ONLINE 0 0 0 gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca ONLINE 0 0 0 ada8p2 ONLINE 0 0 0 ada10p2 ONLINE […]

在FreeBSD上把ZFS作为一个NAS盒子的build议?

请注意,这个页面上的答案是从2009年开始的,不应该作为福音的依据。 如果您有关于zfs的具体问题,请点击“ 提问”button并提出具体问题。 我正在考虑使用FreeBSD 7.2和ZFS文件系统构build一个家庭备份系统。 有没有人有任何有关该文件系统的经验? 特别: 是否有可能从ZFS启动? (我想要吗?) 添加驱动器有多容易? 它如何处理不同大小的驱动器? 你可以添加新的驱动器(或至less只是一个重启)? 我现在可以更好地服务于现成的东西吗? 任何其他的想法和build议将受到欢迎。 编辑: 为了清楚起见,我已经阅读了ZFS上的FreeBSD页面 。 我正在寻找具有实际经验的人员的build议,并提供类似于我想要的设置。

调整NFS客户机/服务器堆栈

我有一台CentOS 5 VMWare服务器通过NFS连接到一台OpenSolaris 2009.06机器上,该机器上装有磁盘映像。 我的虚拟机似乎被缓慢的IO绑定,所以我想尽我所能来优化连接。 我不确定测量生产系统吞吐量的最佳方法,但是使用dd bs=1024k count=400一些不科学的testing显示dd bs=1024k count=400 / s的本地(OpenSolaris)写入和远程(CentOS)写入〜50MB /秒。 我想这些都比我实际得到的低7个虚拟机当前运行的连接。 目前,这两台机器是两个网卡(MTU = 9000)上启用巨型帧的直接连接GigE。 除此之外,没有优化。 NFS挂载/导出使用默认值。 我应该在哪里开始转动旋钮来提高性能?

识别同一个文件的两个ZFS快照之间更改的字节数

假设我有一个包含虚拟机磁盘映像的ZFS文件系统,例如 /tank/examplevm/examplevm-flat.vmdk 让我们进一步假设我每天拍摄那个ZFS文件系统的快照,例如 $ zfs snapshot tank@20120716 $ zfs snapshot tank@20120717 显然,在每个每日快照之间的时间段内,对我的examplevm-flat.vmdk进行了更改(大多数情况下,图像的大小保持不变,但虚拟磁盘中的块被修改)。 因此,ZFS diff命令现在将报告在两个快照之间修改的文件: $ zfs diff tank/@20120716 tank@20120717 M /tank/examplevm/examplevm-flat.vmdk 虽然知道该文件已被修改是一件好事,但我更感兴趣的是在vmdk中修改过的字节数/块数。 因此,我会对以下问题的任何提示感兴趣: ZFS是否有任何function报告两个快照之间的特定文件中更改的块的数量? 是否有任何其他工具,将二进制比较两个文件系统的图像,并报告更改块或字节的数量? 我意识到cmp –l file1 file2 | wc –l cmp –l file1 file2 | wc –l做到这一点,但是这是可怕的,可怕的缓慢。

在ZFS主机上运行VM有什么样的性能影响?

我正在考虑使用Linux上的ZFS从ext3迁移到ZFS,以便在我的Debian Linux主机上进行数据存储。 我真正想要的ZFS的一个杀手function是它的数据完整性保证。 随着我的存储需求的增加,轻松增长存储的能力也是我期待的。 不过,我也在同一台主机上运行了一些虚拟机。 (虽然通常,在我的情况下,一次只有一个虚拟机在主机上运行。) 考虑到ZFS的数据校验和写时复制行为,再加上VM磁盘镜像是比较庞大的文件(我的主VM的磁盘映像文件当前位于31 GB), VM guest虚拟机内部的性能影响如何迁移? 我可以采取哪些措施来减less可能对性能造成的负面影响? 如果有必要的话,我可以在虚拟机磁盘映像上使用较less的数据完整性保证(我不会在任何虚拟机内部做任何真正关键的操作),并且可以很容易地将它们与文件系统的其余部分分开,但是如果我不不必(甚至有select地)closures大多数让我想要迁移到不同文件系统的function。 硬件对于工作站级系统来说非常有用,但对于高端服务器(32GB RAM,很less使用10GB以上,6核3.3GHz CPU,目前2.6TB可用)磁盘空间根据df和共约1.1 TB的免费;迁移到ZFS可能会增加一些更多的可用空间 ),我不打算运行重复数据删除(因为开启重复数据删除就不会增加太多我的情况) 。 计划是从一个JBODconfiguration开始的(显然具有良好的备份),但是如果条件允许的话,我可能会最终转向双向镜像设置。

ZFS池或LVM卷组在使用多个分区时更可靠吗?

在决定是使用LVM卷组还是使用ZFS池来configuration新文件服务器时,需要考虑哪些因素? 在多用途文件服务器领域有没有更好的select? 不像以前的问题 ,我不想分层的技术。 场景: RHEL / CentOS 6 x64服​​务器 许多可用的相同的DAS和SAN LUN select: 我个人对LVM非常熟悉,所以如果是更好的select,我很乐于使用它。 但是,ZFS看起来很有希望,学习新技术总是很好。 考虑到我们希望能够向不同的部门共享一个相当大的存储(多个TB),并且他们需要能够通过CIFS和NFS访问它们,我们是否应该使用ZFS或LVM作为基础池pipe理器? 我知道使用像FreeNAS这样的产品是可能的,但由于各种原因,我需要能够在“典型的”Linux服务器上推广。

ZFS – L2ARCcaching设备故障的影响(Nexenta)

我有一个作为NexentaStor存储单元运行的HP ProLiant DL380 G7服务器 。 服务器有36GB RAM,2个LSI 9211-8i SAS控制器(无SAS扩展器),2个SAS系统驱动器,12个SAS数据驱动器,热备份磁盘,Intel X25-M L2ARCcaching和DDRdrive PCI ZIL加速器。 该系统为多个VMWare主机提供NFS服务。 arrays上还有大约90-100GB的重复数据删除数据。 我遇到了两个突然性能下降的事件,VM guest虚拟机和Nexenta SSH / Web控制台无法访问,需要完全重新启动arrays才能恢复function。 在这两种情况下,都是英特尔X-25M L2ARC固态硬盘失败或“脱机”。 NexentaStor在caching失败时未能提醒我,但在(无响应)控制台屏幕上可以看到一般的ZFS FMA警报。 zpool status输出显示: pool: vol1 state: ONLINE scan: scrub repaired 0 in 0h57m with 0 errors on Sat May 21 05:57:27 2011 config: NAME STATE READ WRITE CKSUM vol1 ONLINE 0 0 […]