Articles of ZFS

FreeNAS:重命名一个zpool

现在,我们的服务器已经build立,我想重新命名我们的zpools。 我在某个地方读到,做这个的方法是用新名称导出和重新导入。 但是,我所有的login点和分享都会保持不变吗? 或者我将不得不重新设置这些?

为什么`zfs list -t snapshot`要比`ls .zfs / snapshot`慢几个数量级呢?

使用所有ZFS-on-Linux版本,我尝试过使用zfs list来列出文件系统或volum的所有快照( zfs list -r -t snapshot -H -o name pool/filesystem )总是需要多个数量级运行时间比ls .zfs/snapshot ,这是直接的: $ time ls -1 /srv/vz/subvol-300-disk-1/.zfs/snapshot [list of 1797 snapshots here] real 0m0.023s user 0m0.008s sys 0m0.014s # time zfs list -r -t snapshot -H -o name vz/subvol-300-disk-1 [same list of 1797 snapshots] real 1m23.092s user 0m0.110s sys 0m0.758s 这个bug是特定于ZFS-on-Linux的吗? 任何有Solaris或FreeBSD ZFS盒子的人都可以执行类似的testing(在一个文件系统上有数百个旋转硬盘快照)? […]

ZFS报告(在FreeBSD和Linux上通过ZoL)

由于长期使用mdadm的用户刚刚遇到磁盘错误,并且记得我为磁盘错误configuration了mdadm的自动邮件报告。 因此,我只需要在/etc/mdadm/mdadm.conf中插入我的邮件地址 MAILADDR [email protected] 但是我真的错过了FreeBSD上的那一个。 而且就像我的ZFS RAID6现在运行了半年以上,我想如果磁盘遇到故障会发生什么? 我从来没有configuration任何外部邮件地址。 有没有简单的方法来完成和testing呢? 像在mdadm上一样: sudo mdadm –monitor –scan –test 而我将如何在Linux上使用ZoL(Linux上的ZFS)呢? 编辑:对不起,我的意思是自动报告。 没有预定。 我知道我可以build立一个脚本并且每分钟parsingzpool状态-X。 但我认为这不是完成报告问题的非常优雅的方法。 最好立即通知磁盘故障(如mdadm) 编辑[2]:感谢您的build议,但没有我卡住了一些脚本问题,有人可以帮我在/ bin / sh我的循环问题在这里 – > PASTEBIN 编辑[3]:得到我的循环问题。 :)(更新在PASTEBIN ) 还有什么更多的build议为我的脚本?

“zfs接收”是一个primefaces操作吗?

zfs receive是否zfs receive一个primefaces操作? 在zfs receive操作期间,进程是否可以读取或写入接收文件系统? 在zfs receive操作完成之前,进程是否可以读取传入快照stream中的任何文件?

如何添加第二个磁盘到我的zfs根池

我正在试图添加一个新的磁盘到我的zfs根池。 这是我目前的configuration: # zpool status pool: rpool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c0d0s0 ONLINE 0 0 0 errors: No known data errors bash-3.00# df -h Filesystem Size Used Avail Use% Mounted on rpool/ROOT/s10x_u7wos_08 311G 18G 293G 6% / swap 14G 384K 14G 1% /etc/svc/volatile […]

从作为iSCSI目标公开的ZFS池中恢复NTFS数据

这是我的愚蠢,数据并不重要,现在是一个学习经验第一,节省时间第二。 我通过napp-it中的裸骨指令设置了一个100GB的iSCSI目标。 这是一个卷LU。 然后,我的Windows 7计算机连接到iSCSI目标,将其格式化为NTFS,并使用一些大型的iso文件传输testing其性能。 然后我没有映射驱动器,重新连接到目标,并被迫再次格式化为NTFS。 那时我意识到我所传输的文件只存在于iSCSI目标上。 我投了一下,然后开始了我的生意。 当我清理我的实验时,我注意到在这个屏幕上: http : //imgur.com/1xlcu.jpg 这是我的实验目标坦克/ iSCSI,它仍然有很多数据。 假设我的isos仍然在这个池中,我将如何去恢复它们? 在写这篇文章时,我使用了www.runtime.org的GetDataBackup for NTFS。 而它发现两个以前的NTFS分区没有数据。

FreeNAS的Raidz比预期的吃得多

我刚刚得到了6个新的2TB硬盘,并将它们添加到我的FreeNAS盒子中。 我以前只处理RAID1,每个设置都给了我所期待的。 但是,在6 * 2TB硬盘上,我想最大限度地利用空间,所以我用raidz去了。 但我似乎缺less空间。 raidzbuild成后,我有8.6TB的空间。 也许我犯了可怕的错误,但是(N-1)x S(min)(其中N = 6和S(min)= 2TB)应该导致10TB。 (我明白它会更像9.something) raidz实际上是消耗更多的1驱动器的空间? 或者他们可能是另一个问题? (所有驱动器已经独立validation,2TB的空间可用)

ZPOOLreplace导出池中的有缺陷的磁盘

昨天,我把一个新的磁盘放到我的服务器上。 可悲的是,我没有在失败之前检查磁盘。 我使用命令zpool add nas /dev/disk/by-id/scsi-SATA_ST31500341AS_9VS27Z4M-part1将其添加到池中 之后不久,服务器的CPU负载几乎变成了无穷大,我甚至无法login。 所以我执行了硬重启(Alt + SysRq + b),但服务器无法启动。 (在GRUB出现后,大约5分钟没有发生什么事,然后关掉它,拿出新的磁盘,我启动并运行。 但现在,我遇到了问题,因为最后一个(新的)磁盘显示状态为“UNAVAIL”,因此无法访问所谓的“nas”池,并且由于没有镜像池,因此整个池都处于州UNAVAIL。 如果我再次放入磁盘并执行zpool online nas /dev/disk/by-id/scsi-SATA_ST31500341AS_9VS27Z4M-part1它不起作用,并告诉我“磁盘找不到”。 所以我尝试了一些从oracle-docs读取的可能性,并使用zpool export nas将其zpool export nas 。 现在,我甚至无法导入池。 zpool import nas -f cannot import 'nas': one or more devices is currently unavailable 如果我看zpool import ,它告诉我: pool: nas id: 3366469163144781663 state: UNAVAIL status: One or more devices are missing […]

有没有办法一次设置多个ZFS文件系统属性?

我正常的ZFS文件系统的构build过程可能如下所示: zpool create vol1 -o autoexpand=on -o autoreplace=on mirror nvme0n1 nvme1n1 -f zfs set compression=lz4 vol1 zfs set atime=off vol1 zfs set xattr=sa vol1 zfs set acltype=posixacl vol1 zfs create vol1/data -o mountpoint=/data ZFS似乎允许使用-o标志设置文件系统和池创build选项。 但是,在许多情况下,我需要在顶层设置文件系统参数(用于由新文件系统inheritance),而不是在本地定义。 有什么办法可以将多个zfs set parameter=value行简化为一个命令行吗?

在安装的ZFS池上运行Ubuntu cp -p

在我的Ubuntu服务器上,我有几个自动安装的zfs池。 我遇到的问题是,当我在保留权限的同时尝试复制文件时,出现以下错误: cp:保留`blah.txt'权限:操作不受支持 尽pipe如此,该文件仍然与原始文件属性一起重复。 任何人都可以帮助解决这个问题?