Articles of ZFS

最佳ZFS数据集configuration作为副本后端使用

我目前正在使用FreeNAS系统通过本地networking上的wifi备份一些笔记本电脑和台式机。 我正在使用deja-dup(一个包装重复)来处理客户端。 假设客户端是默认的开箱即用的,我应该如何设置我的ZFS数据集以确保最大的存储容量,而不会浪费时间(比如试图压缩不可压缩的东西,或者如果不需要,重复删除不可重复删除的内容等) 我的select是: 压缩级别:[none,lz4,gzip [1-9],zle] 装载选项:[atime,noatime] logging大小:[512b,1k,2k,4k..1024k] ZFS重复数据消除:[开,关]

Ubuntu 16.04,重新启动后zfs没有更多的文件?

我正在尝试在我的docker服务器上新的zfs实施Ubuntu的。 我做了一个游泳池: sudo zpool create dockerz mirror wwn-0x50014ee6afaf43a6-part1 wwn-0x50014ee0027f52a0-part1 mirror wwn-0x5000c5004dc2a401-part1 wwn-0x50014ee002530b22 2 zfs 1745 sudo zfs create dockerz/docker 1746 sudo zfs create dockerz/lxcontainers 解压备份 sudo tar xvpfj /media/nfsmedia/syno/usb9/backup.tar.bz2 -C /dockerz/docker/DOCK/ 修改一个fstab来加载一些目录 /dockerz/docker/DOCK/docker/docker /var/lib/docker none bind 0 0 /dockerz/docker/DOCK/boinc-client /var/lib/boinc-client none bind 0 0 然后在我的ZFS没有更多的文件…只是我已经通过绑定安装的2个目录,也没有任何文件。 但是我仍然有使用的空间: /dockerz/ ├── docker │ └── DOCK │ ├── boinc-client […]

导出的ZFS池不可用

前一段时间我的ZFS池变得不可用了,我尝试了一些东西来获取它上面的文件,以删除我所能做的。 我放弃了ZFS的知识。 但是,我正在build立一个新的服务器,我希望在build立一个新的系统之前至less恢复两个好的驱动器上的内容。 当我做一个zpool列表时,我列出了一些rpool,但是我的大型坦克池RaidVol没有列出。 但是,当我使用zpool导入时,我得到以下内容: pool: RaidVol id: 16881038089561338671 state: UNAVAIL status: One or more devices are missing from the system. action: The pool cannot be imported. Attach the missing devices and try again. see: http://illumos.org/msg/ZFS-8000-3C config: RaidVol UNAVAIL insufficient replicas raidz1-0 UNAVAIL insufficient replicas c6t0d0 ONLINE c6t1d0 ONLINE 4996290435585416026 UNAVAIL cannot open c6t3d0 UNAVAIL […]

如何用zfs镜像两个条纹的硬盘。

我有两个1G + 1G磁盘条纹在一起。 (例如文件名) config: NAME STATE READ WRITE CKSUM xxx ONLINE 0 0 0 /media/user/storage/x1 ONLINE 0 0 0 /media/user/storage/x5 ONLINE 0 0 0 现在我买了2G硬盘。 这是可能的镜像条纹得到这样的事情: config: NAME STATE READ WRITE CKSUM xxx ONLINE 0 0 0 mirror stripe /media/user/storage/1G-1 ONLINE 0 0 0 /media/user/storage/1G-2 ONLINE 0 0 0 /media/user/storage/2G-1 ONLINE 0 0 0

Linux上的ZFS:如何正确configurationvdev_id.conf文件并触发vdev别名?

我一直在试图让Linux上的ZFS读取/处理vdev_id.conf文件并给我一个/ dev / disk / by-vdev目录,但是没有用。 我有一个SAS HBA与多个硬盘驱动器的冗余连接。 我已经阅读了文档,但是我不太清楚要在PCI_ID列中放置什么。 我已经把所有的东西都默认出来了,而且我甚至没有看到目录“by-vdev”。 我运行命令“udevadm触发器”,但我得到错误或输出,只是一个回报。 这是我的文件: multipath yes # PCI_SLOT HBA PORT CHANNEL NAME channel 85:00.0 1 A channel 85:00.0 0 B channel 86:00.0 1 A channel 86:00.0 0 B 我启用了multipathd,使用“mpathconf –enable”命令删除了blacklist-all指令,并在/ dev / mapper中获得了mpath设备。 不知道从哪里去填充by-vdev目录。 OS是内核4.8的CentOS 7.3 感谢您的帮助!

通过LUKS(NBD或NFS)的ZFS? 需要encryption复制解决scheme

我在家中和远程服务器上使用LUKS上的ZFS(ZoL)。 所有工作都完美而快速。 我通过cron做快照,但是现在我想将它们复制到一些备份存储。 我有一个小硬盘dlink dns-323 nas,我已经安装了debian。 我的要求是备份encryption。 我不确定可以将ZFS和Luks安装到NAS中。 我的问题可能很愚蠢,我知道这听起来很疯狂,但在这种情况下我只有一个想法。 在NAS上创buildLUKS和ZPOOL,但在工作站上通过LAN远程解锁和运行。 通过NFS或NBD。 这听起来如何? 如果我的局域网连接是稳定的,确定,它会运行良好吗? 我想过rsync,zfs send / gpg,但我需要能够删除备份框上的一些快照,并希望它自动pipe理,并保持与主同步。 有任何想法吗?

生产服务器上的ZFS不希望在启动时强制安装

我在生产远程gentoo服务器上使用ZFS。 一切都很好,直到我的服务器冻结,我需要重新启动它。 安装rootfs时出现“device or resource busy”错误。 简单的行动需要避免这一点 – 导入和导出它。 但对我来说真的很难。 远程pipe理虚拟光盘挂载是非常缓慢的,越野车,我做了什么是从生活光盘启动,导入-f池和出口。 但为什么它不是在启动时被迫? 为什么我需要做这些额外的步骤? 我的内核行是:linux /kernel-genkernel-x86_64-4.9.11-hardened real_root = ZFS = mypool / ROOT / rootfs dozfs = force by = id net.ifnames = 0 zfsforce = 1 zfs version是0.6.5.9 我有两个“强制”关键字,它忽略了这一点! 该怎么办?

在重新启动后在centos上找不到zfs模块

在我重新启动CentOS服务器之后,ZFS不起作用: $ sudo zfs list The ZFS modules are not loaded. Try running '/sbin/modprobe zfs' as root to load them. $ sudo modprobe zfs modprobe: FATAL: Module zfs not found. 我的操作系统版本是CentOS Linux release 7.2.1511 (Core)和uname -r打印3.10.0-327.18.2.el7.x86_64 。 我注意到一些软件包似乎在机器启动时自动更新 – 我在/var/log/yum.logfind以下条目: Feb 28 10:11:17 Updated: epel-release-7-9.noarch Feb 28 10:11:29 Updated: openblas-openmp64-0.2.19-4.el7.x86_64 Feb 28 10:11:30 Updated: openblas-threads64_-0.2.19-4.el7.x86_64 […]

在只有部分数据集被删除时,澄清ZFS上的重复数据删除表大小

我试图清楚从重复数据删除表/内存影响的angular度来看,zfs重复数据删除是如何处理池中某些(但不是全部)数据集的情况。 我在2012年发现了FreeBSD邮件列表中的这句话 : “请注意,只有启用了重复数据删除的文件系统才会参与重复数据删除。重复数据删除=closures的文件系统不会经过重复数据删除。” 例如,假设我们有两个zpools,A和B. Pool A有4个数据集,包含21 TB的数据: 数据集#1和#2每个都包含0.5 TB的数据和重复数据删除 数据集#3和#4每个都包含10 TB的数据,并进行重复数据删除 池B有一个包含1 TB数据的数据集,并进行重复数据删除。 很明显,重复数据删除function适用于整个每个池。 不清楚的是,重复数据删除的内存影响是否仅基于重复数据集? 换句话说,所有其他条件相同的情况下,池A和池B的重复数据删除表大小和内存影响是否相似,或者池A的池内的重复数据池大小是否大于池B? 我认为重复数据表必须是相似的(设置池范围,但不影响任何非重复数据集的大小),主要是因为如果它大得多,就相当于强制对整个池进行重复数据删除,而不仅仅是特定的数据集。 但是,我不清楚这是否真的如此。

公开在ZFS卷下挂载的未导出的文件系统,作为卷的NFS共享的一部分

我在我用作networkingNAS(称为data / nas&'data'raidz zpool的一部分)的服务器上有一个ZFS卷,我使用ZFS属性设置sharenfs通过NFS将这个卷暴露给我的LAN。 这工作很好,并已经非常简单的pipe理。 我最近有一个8TB的希捷档案SMR硬盘,充满了我想通过我的NAS的NFS共享暴露的一些数据。 由于这是一个档案SMR驱动器,我只想装载和公开这个驱动器在只读模式下(因为在这些驱动器上的重写性能预计是很糟糕的),这可能不是一个很好的候选添加到ZFS(都是由于事实上它已经存在,并且SMR驱动器不是ZFS下performance最好的)。 目前的格式是UFS。 我想要做的是将驱动器挂载到某个地方(比如说/ mnt / foo),然后将挂载该位置的数据绑定到我的数据/ nas ZFS共享目录下,从而通过现有的NFS共享公开数据。 我已经读过在sharenfs选项中设置一些crossmnt和nohide的组合,可能会允许两个NFS导出之间的这种关系。 但是,由于我的存档驱动器不是ZFS,因此使用它的NFS导出也不会像ZFS卷那样简单; 即使这个策略是有效的。 有谁知道,如果这种跨文件系统的NFS策略可以工作,特别是如果挂载的子文件系统不是ZFS NFS导出(或任何NFS导出,就此而言)? 如果是的话,需要configuration什么types的选项来确保跨NAS连接可靠地访问这个子文件系统? 仅供参考:此服务器运行SmartOS(Illumos),因此具有本机ZFS和UFS文件系统支持。