Articles of ZFS

为什么L2ARC不会为目录遍历提供更多的加速?

L2Arc通常configuration为在SSD上caching随机旋转盘读取。 我已经设置了这个configuration,希望加快目录遍历。 这是设置: # zpool list -v NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT geek1 2.72T 1.18T 1.54T – 53% 43% 4.64x ONLINE – sdc 1.36T 606G 786G – 54% 43% sdd 1.36T 606G 786G – 53% 43% log – – – – – – zil 3.97G 0 3.97G – 0% 0% […]

Raidz-1奇偶校验盘?

我对如何configuration我的zfs池有点困惑。 将8个磁盘添加到raidz1池或将2个2×4添加到具有2个raidz1组的池中,有什么区别? 例 zpool create testPool raidz1 d1 d2 d3 d4 raidz1 d5 d6 d7 d8 zpool状态显示相同数量的可用磁盘空间,但在运行zfs list testPool时,具有2个raidz组的磁盘空间显示1/2的可用磁盘空间,其中所有磁盘都在一个组中。 此方法是否定义了2个校验盘? 如何定义奇偶校验磁盘的数量? 如果我用raidz2创build下面的池,它显示了几乎相同的可用空间。 zpool create testPool raidz2 d1 d2 d3 d4 d5 d6 d7 d8 任何提示呢? 非常感谢

删除文件时,本机ZFS不会释放空间

我在Ubuntu 11.10上运行本机ZFS,镜像设置中带有2个2 TB的驱动器。 ZFS文件系统直接安装在Ubuntu中,而不是通过NFS或类似的东西,权限设置为777。 我的问题是,当我删除一个文件它会消失如你所料,但是当我键入zfs列表它仍然报告使用的空间,如果文件仍然存在。 我已经等了几个小时了,而且我现在正在进行擦洗,看看是否能解决这个问题,但这不应该是必要的,应该吗?

Solaris 11随机挂起:需要帮助找出原因

我在HP DL385 G7上安装了Solaris 11(+最新的SRU)(连接到P2000存储器,有30个磁盘;它们被注册为单独的RAID0驱动器,但是我使用的是ZFS的raidz1),这是我们的文件服务器。 每两天,系统冻结,需要重新启动。 日志和fmdump没有什么特别之处。 我结束了一个cron工作,每隔2分钟就把一些统计数据转储到硬盘上,这表明在崩溃之前有一个负载增加和内存减less: $ grep load top.120512* top.120512063601:last pid: 21751; load avg: 0.61, 2.30, 2.93; up 4+17:03:45 06:36:02 top.120512063800:last pid: 21765; load avg: 0.27, 1.62, 2.59; up 4+17:05:44 06:38:01 top.120512064000:last pid: 21779; load avg: 0.29, 1.17, 2.30; up 4+17:07:45 06:40:02 top.120512064200:last pid: 21793; load avg: 0.56, 0.97, 2.09; up 4+17:09:44 06:42:01 […]

Freenas ZFS创build错误

我正在使用FreeNAS-8.3.0-RELEASE-p1-x64(r12825)的全新安装,并且我在zfs安装程序中遇到了问题。 例如:当我用我的2TB硬盘使用GUI创build新的ZFS卷时,GUI显示状态“UNKNOWN”。 于是我重新开始使用命令行来创build池 zpool create /dev/ada1 这是起初工作,但出口和import说“损坏的数据”,没有办法导入它。 我尝试了其他的驱动器 – 所有这些都在控制台上失败。 我尝试了全新的驱动器和旧的驱动器。 有趣的是,我的其他驱动器开始在GUI上工作 – 但导出和导入也失败(例如在重新启动时)。 有什么想法吗? 谢谢,丹

有没有办法限制Solaris 10文件服务器上每个用户通过NFS的networking带宽/文件系统的使用?

我们在Solaris 10上运行大型文件服务器,在Ubuntu上运行大约200个计算节点。 节点通过NFS访问文件服务器。 随着时间的推移,负载越来越大。 有没有一种方法可以在每个用户的基础上限制资源(进出networking带宽或存储上的ZFS文件系统的I / O)? 如果在Solaris上不可行,我们可以调整networking交换机(Cisco Nexus 5k系列)以实现相同吗? 其他人如何以公平的方式pipe理大型单一文件系统?

在bsd-rescue上设置FreeBSD上的ZFS

我有一个来自OVH的服务器,按照以下步骤在FreeBSD10上的OVH服务器上设置ZFS :https: //wiki.freebsd.org/RootOnZFS/GPTZFSBoot/Mirror 创build一个可启动的ZFS文件系统 zpool destroy zroot gpart destroy -F ada0 gpart destroy -F ada1 gpart create -s gpt ada0 gpart create -s gpt ada1 gpart add -b 34 -s 64k -t freebsd-boot ada0 gpart add -s 8G -t freebsd-swap -l swap0 ada0 gpart add -t freebsd-zfs -l disk0 ada0 gpart add -b 34 -s […]

FreeNAS zfs zraid两个失败的磁盘

我有一个带ZFS的FreeNAS 8.3文件服务器,在raidz中运行4个3TB磁盘。 camcontrol devlist: 在scbus0目标0 lun 0(pass0,ada0) 在scbus1目标0 lun 0(pass1,ada1) 在scbus2目标0 lun 0(pass2,ada2) 在scbus3目标0 lun 0(pass3,ada3) 在scbus6目标0 lun 0(pass4,da0) 上周我注意到四个磁盘中有两个开始失败: freenas smartd:设备:/ dev / ada0,24当前不可读(待定)扇区 freenas smartd [2241]:设备:/ dev / ada0,24脱机不可纠正的扇区 freenas smartd [2241]:设备:/ dev / ada2,24当前不可读(待定)扇区 freenas smartd [2241]:设备:/ dev / ada2,24脱机不可纠正的扇区 zpool status -v没有显示任何错误。 我并不是那么熟悉ZFS,而这是由另一个pipe理员设置的。 出于某种原因,我的印象是,我可以简单地更换出现故障的驱动器。 这是我所做的。 2014-10-13.17:41:29 zpool offline vol1 gptid / […]

ZFS – 从备份恢复或修复快照中损坏的文件?

一个池已经遭受了永久性数据损坏,以便将文件数据作为快照的一部分。 如果文件数据是文件系统的一部分(而不是任何快照的一部分),我可以简单地从合适的备份副本中恢复文件。 如何从快照副本或池的(部分1 )副本中恢复或修复(并清除由ZFS报告的错误)快照中的文件? 1部分副本至less包含受影响的快照以及受影响的池上的上一个快照。 例 这是一个很容易重现的非常人为的例子: 从(bash)shell提示符下: cd mkdir zfs-test for i in {1..2}; do dd if=/dev/zero of=zfs-test/tank-file$i bs=1G count=1 &> /dev/null; done sudo zpool create tank1 ~/zfs-test/tank-file1 sudo zpool create tank2 ~/zfs-test/tank-file2 sudo zfs snapshot tank1@snapshot1 sudo sh -c 'zfs send tank1@snapshot1 | zfs receive -F tank2' 创build一个文本文件/ tank1 / test-text-file ,其内容可以在hex编辑器中轻松find。 这是我用的: […]

单个驱动器的缺点是拆分成ZFS raidz1的分区和分区,而带有数据重复的单个驱动器ZFS?

我正在寻找一个最小的ZFS设置来实现单个设备上的自我修复。 由于我备份我的数据,驱动器故障并不担心,但是, 到目前为止,我已经能够提出的唯一build议是指向copies=2选项,但是将可用容量削减了50%。 我的问题:将设备分成8个分区并将其连接到7 + 1 RAID-Z1arrays中有什么缺点(性能除外)? 这意味着可用空间减less了12.5%。 当我在这时,为什么不去19 + 1或99 + 1(或任何分区表允许)?