我有这些zfs数据集: pool1 pool1/ds_parent pool1/ds_parent/ds1 pool1/ds_parent/ds2 pool1/ds_other 我想保留现在包含在数据集ds1和ds2中的所有数据,但我不希望ds1和ds2成为数据集; 我只想把ds1和ds2作为ds_parent数据集中的独立目录。 在此之后,我想要这个zfs数据集列表: pool1 pool1/ds_parent pool1/ds_other 换句话说:数据集ds1所有数据都应该迁移到目录ds1 ,而数据集ds2所有数据都应该迁移到目录ds2 。 ds1和ds2应作为数据集销毁。 无需复制/移动文件和目录,这可以快速,轻松地完成吗? 版本信息: 我在Freebsd 10.2-RELEASE上。 dmesg | grep -i zfs ZFS filesystem version: 5 ZFS storage pool version: features support (5000)
我在Softlayer的一个虚拟实例上运行CentOS7。 有一个块存储设备通过multipath / iscsi可用于实例 我已成功将此块设备安装为XFS。 我决定给ZFS一个尝试。 当我手动发出命令来'挂载'这个ZFS卷时,它工作正常。 zpool import -f zfs-data 在CentOS7上,ZFS有两个问题。 a。)我的zpool不会自动挂载在引导上 b。)系统在重启时挂起 我怀疑(a)的解决scheme也可以解决(b)。 让我们先来看看(a) 。 在zfsonlinux CentOs 7的github页面上有这样的讨论。 重启之后不能mount / import池 看来,通过yum安装ZFS时,不会创build/ etc / hostid文件。 所以正如在这个页面上build议我运行以下命令来创build它。 dd if=/dev/urandom of=/etc/hostid bs=4 count=1 然后突然想到,它不能自动挂载,因为在机器启动的时候,ZFS被加载到iSCSI 之前 。 从/var/log/boot.log – 第一列是行号 81 Starting Import ZFS pools by cache file… 147 Starting Open-iSCSI… 如何更改加载顺序? (b)在重启时挂起 如果我导入池,不写任何东西,我可以重新启动罚款。 然而,一旦在挂载上交换了任何数据,重新启动/closures日志将包含这些行。 Stopping […]
我打算使用ZFS进行备份。 5-10台服务器将通过DRBD将更新“stream”到ZFS文件系统上的超大文件(每个500 GB)。 服务器将产生大约每秒20兆字节的随机写入,总计大约100MB。 我不读这些文件,所以模式应该几乎100%写入。 对我来说抄写是非常重要的function。 据我了解,COW应该将随机写入转换为顺序写入。 但是这没有发生。 我使用12个SAS驱动器E5520 XEON(4核)和24 GB RAM在服务器上进行了testing,随机写入非常低。 我决定先在同一台服务器上的1个SAS硬盘上进行debugging。 我创build了EXT4文件系统并做了一些testing: root @ zfs:/ mnt / hdd / test#dd if = / dev / zero = tempfile bs = 1M count = 4096 conv = fdatasync,notrunc 4096 + 0logging在 4096 + 0logging 4294967296字节(4.3 GB)复制,30.2524 s,142 MB / s 所以我可以看到写入速度约为140 MBps。 随机写入〜500 KBps〜100-150个iops。 […]
我有一个退化的zpool,称为2个镜像中的4个6TB驱动器的存储。 第二个镜像中的其中一个驱动器不可用。 所有的电缆似乎都被物理插入。 我的设备ID是否更改? zpool状态-v存储 NAME STATE READ WRITE CKSUM storage DEGRADED 0 0 0 mirror-0 ONLINE 0 0 0 sdc ONLINE 0 0 0 sdd ONLINE 0 0 0 mirror-1 DEGRADED 0 0 0 ata-WDC_WD60EFRX-68MYMN1_WD-WX91D65355TK ONLINE 0 0 0 15417011366624190108 UNAVAIL 0 0 0 was /dev/disk/by-id/ata-WDC_WD60EFRX-68MYMN1_WD-WX91D6535J36-part1 ls -l / dev / disk / by-id […]
我们ZFS on Linux安装了带有ZFS on Linux Debian Wheezy主机。它仅用于通过http提供大型文件。 用户活动主要以大量随机阅读为特征。 我们已经注意到~95% ARC命中率给我们提供了~80 MByte/s hdd的读取活动,整体~160 MByte/s服务器输出。 我已经检查过ARC并且L2 prefetch选项被禁用。 Linux预读这个数组默认设置为512 ,改变这个值不会产生任何明显的影响。 这种差异的原因是什么,有什么办法来获得真正的ARC使用适当的统计数据?
我有一个硬盘,它曾经属于Ubuntu 12.04服务器上的一个3磁盘ZFS镜像池,名为d510 。 磁盘已正确分离,但其文件系统tank0未导出。 现在我想通过将其安装在不同的Xubuntu 14.04桌面系统上,从这个磁盘上恢复一些文件。 在这个桌面系统上,磁盘被看作是: $ ls /dev/disk/by-id/ … ata-WDC_WD10EADS-00M2B0_WD-WCAV51264701 ata-WDC_WD10EADS-00M2B0_WD-WCAV51264701-part1 ata-WDC_WD10EADS-00M2B0_WD-WCAV51264701-part9 … 由于part9非常小,因此数据看起来完全在part1分区上。 但是, zdb命令显示此特定磁盘分区曾经是child 2,并在Ubuntu 12.04服务器上以不同方式调用,即scsi-SATA_WDC_WD10EADS-00_WD-WCAV51264701-part1 。 $ sudo zdb -l /dev/disk/by-id/ata-WDC_WD10EADS-00M2B0_WD-WCAV51264701-part1 ——————————————– LABEL 0 ——————————————– version: 5000 name: 'tank0' state: 0 txg: 0 pool_guid: 8764435549195071605 hostname: 'd510' top_guid: 4212287141343472152 guid: 10584802241354722513 vdev_children: 1 vdev_tree: type: 'mirror' id: 0 guid: 4212287141343472152 […]
我有一台运行4年的Ubuntu 12.04 LTS的服务器 ,在机器上安装了zfsonlinux , 并且安装了1.5TB的镜像驱动器。 Ubuntu 16.04 LTS没有升级path,所以我将不得不重新映像启动驱动器,但它具有原生支持ZFS。 升级过程中需要做些什么来确保升级后的机器仍然可以访问这些池?
我使用下面的命令创build了一个新的img: truncate -s 250G disk.img 我使用(lxd.img为2G)replace了我用于zpool的现有映像: zpool replace lxd lxd.img disk.img 我将autoexpand设置为打开 sudo zpool set autoexpand=on lxd 但是尺寸仍然是2GB,我有一个EXPANDSZ属性,指出新图像的大小。 NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT lxd 1.98G 1.82G 170M 248G 69% 91% 1.00x ONLINE – 我怎样才能解决这个问题?
ZFS允许创buildclosuressetuid的数据集,其中(AFAIK)意味着setuid位不能在这些数据集中存储的文件上设置。 现在假设有两个数据集,一个用于/root ,一个用于/home目录。 在这两个数据集的任何一个上放置setuid是否有意义? 我的理解是,不,因为: 当然,root可以用root权限执行任何二进制文件。 所以,setuid在/root似乎没有提供太多。 但是,如果一个文件由另一个用户拥有,并且设置了setuid标志,那么当root执行该文件时,它将被执行,就像该用户所拥有的一样,而不是root。 因此,在/home存储/安装的二进制文件中设置setuid可能从根的angular度来看是有意义的,但是用户是否会感到困扰呢? 还有更好的技术来执行二进制作为另一个用户,无论如何可以使用root。 在用户的home文件夹中setuid的唯一用法我可以想象的是,如果该用户必须能够执行具有root权限的二进制文件,而该权限不能被系统范围安装并且访问权限将被限制,例如在一个文件夹不能被其他用户浏览。 但似乎有点牵强。
我有一个问题,我真的很难debugging。 通过系统“hiccuped”运行ZFS,将一些信息转储到DMESG中,并继续工作。 我的ZFS在ESXi上托pipe虚拟机。 发生此问题时,许多虚拟机遇到块IO错误,其中一些虚拟机会进入只读模式,需要从备份或fsck进行恢复以修复文件系统。 这个问题只是偶尔发生,而且我已经敲定了系统,试图强调它,似乎没有与性能有关。 每隔几个月才会发生,所以最终解决这个问题对我来说似乎是一个梦想。 首先,关于我的系统(Centos 7,4.5)的一些信息。 [root@zfs-head ~]# name -a Linux zfs-head 4.5.0-1.el7.elrepo.x86_64 #1 SMP Mon Mar 14 10:24:58 EDT 2016 x86_64 x86_64 x86_64 GNU/Linux dmesg条目: [4331253.022999] sd 2:0:28:0: [sdaa] tag#2 CDB: Read(10) 28 00 10 a8 3d b5 00 00 20 00 [4331253.023006] mpt3sas_cm0: sas_address(0x5000c500837f31f2), phy(8) [4331253.023008] mpt3sas_cm0: enclosure_logical_id(0x50010c60004d41ff),slot(0) [4331253.023010] mpt3sas_cm0: enclosure […]