发送端脚本如下: #!/bin/sh #Variables bigdata=vid-zfs-live/bigdata today=`gdate +%m-%d-%y` yesterday=`gdate -d'yesterday' +%m-%d-%y` #Actions zfs snapshot -r "$bigdata"@"$today" zfs send -i "$bigdata"@"$yesterday" "$bigdata"@"$today" | nc -w 700 192.168.10.11 8024 发送端的Cron条目如下: 30 0 * * * /scripts/zfssendBigData.sh > /tmp/cron1.log 接收端脚本如下: #!/bin/sh /usr/bin/nc -l -p 8024 | zfs receive -F vid-zfs-bak/bigdata 接收端的Cron条目如下: 29 0 * * * /scripts/zfsreceiveBigData.sh > /tmp/cron2.log cron1.log和cron2.log都是空的。 […]
我在Ubuntu Xenial(16.04)上遇到的ZFS问题 我已经从包维护者的zfsonlinux.org站点运行了多年的ZFS。 事情一直很好。 但最近我升级到Ubuntu 16.04出来时。 我很兴奋地看到它内置了ZFS。到目前为止,除了一件事情之外,一切工作都很好。 zfs share -a和zfs share filesystem不工作,因此,无论何时重新启动系统, zfs-share.service都不会启用在ZFS中configuration的我的SMB共享。 我没有Debian 8.x或更旧版本的Ubuntu与zfsonlinux.org软件包的这个问题。 我已经提交这是一个与ZoL和Ubuntu的错误。 我不知道会走多远。 我不知道这是一个错误还是与Ubuntu或我的问题。 所以我也希望在这里有人会有一个想法,或者可以证实这是他们也有问题。 ZoL: https : //github.com/zfsonlinux/zfs/issues/4999 Ubuntu: https : //bugs.launchpad.net/ubuntu/+source/zfs-linux/+bug/1615405 在底部查看我的实际问题。 debugging信息 没有股票! 我也在几台客户端计算机上进行了validation – 这就是问题发现的方式。 root@igor:~# net usershare list root@igor:~# 重新启动后系统zfs-share.status似乎很好 root@igor:~# systemctl status zfs-share ● zfs-share.service – LSB: Network share OpenZFS datasets. Loaded: loaded (/etc/init.d/zfs-share; static; […]
试图在SDD上创build一个ZFS池,但仍然遇到各种错误。 lsblk驱动器的输出是: sdc 8:32 0 232.9G 0 disk ├─sdc1 8:33 0 232.9G 0 part │ ├─Evo250-vm–303–disk–1 251:0 0 10G 0 lvm │ ├─Evo250-vm–401–disk–1 251:1 0 32G 0 lvm │ ├─Evo250-vm–404–disk–1 251:2 0 32G 0 lvm │ ├─Evo250-vm–405–disk–1 251:3 0 32G 0 lvm │ ├─Evo250-vm–101–disk–1 251:4 0 10G 0 lvm │ ├─Evo250-vm–304–disk–1 251:5 0 10G 0 […]
我想更改现有ZFS数据集的recordsize属性。 手册页指出: 更改文件系统的logging大小只影响后来创build的文件; 现有文件不受影响。 所以简单的改变recordsize属性只会影响新创build的文件。 我希望现有的文件也可以利用新的logging。 将数据集的zfs send和zfs receive将现有文件转换为新logging大小,还是必须手动将文件从数据集中复制回来?
我在Ubuntu上有一个2个驱动器的ZFS镜像池。 池的驱动器位于/ dev / sda和/ dev / sdb。 出于各种原因,我不得不将物理驱动器放在/ dev / sda到我服务器上的不同插槽,所以Ubuntu现在认为它在/ dev / sdc。 看起来,正因为如此,zfs池不再认可这个驱动器,因此将我的池标记为降级。 zpool status -x yield pool: data state: DEGRADED status: One or more devices could not be used because the label is missing or invalid. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Replace […]
我按照菜单安装了带有encryptionZFS的FreeBSD 11。 在使用系统好几天后,我在/boot/loader.conf中搞砸了一些东西,所以无法启动。 我search和恢复的方式是从Live CD启动,并input: # cd /tmp/ # mkdir mounted # geli attach /dev/ada0p3 # zpool import -f -R /tmp/mounted zroot 它的工作,这里是ZFS的样子 # zfs list NAME USED AVAIL REFER MOUNTPOINT zroot 5.64G 223G 96K /tmp/mounted/zroot zroot/ROOT 4.05G 223G 96K none zroot/ROOT/default 4.05G 223G 4.05G /tmp/mounted zroot/tmp 124K 223G 124K /tmp/mounted/tmp zroot/usr 1.58G 223G 96K […]
我把我的重要数据保存在运行Ubuntu 12.04 LTS的机器上的两个镜像(我认为这是正确的术语)。 今天,我无法访问任何数据,“sudo zpool status -x”返回: pool: data state: ONLINE status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://zfsonlinux.org/msg/ZFS-8000-8A scan: none requested config: NAME STATE READ WRITE CKSUM data […]
我们得到一台配有Smart Array P822控制器的HP DL360 G8 。 在那个控制器上会有一个HP StorageWorks D2700 。 有谁知道,可以在HBA模式下运行Smart Array P822? 我只find有关可以运行HBA的P410i的信息。 如果不支持,您怎么看待LSI 9207-8e控制器? 这会适合这个设置吗? 我们得到的硬件是使用的,但都是惠普原装的。 StorageWorks具有25 x 900 GB SAS 10K磁盘。 因为这些磁盘不是新的,所以我只想用raid6,其余的用于备份(我需要查看磁盘数量是否最优,否则zfs)。 如果我以后不坚持使用SAS,那将会很好。 作为操作系统,我想安装与zfs 0.71 debian舒展作为文件系统和软件突袭。 我已经看到惠普有一个debian的页面。 我想使用hba模式,因为这是推荐,zfs最多知道磁盘的可能性,我独立于RAID控制器。 对我们来说zfs有很多好处,但我认为没有必要讨论这个问题。 在HP DL360 G8中,我想为第二个池连接一些SATA驱动器。 为此我将testing使用正常的消费者硬盘。
我无法理解zpool目录在我的机器上的位置? zfs list 显示这个输出 NAME USED AVAIL REFER MOUNTPOINT default 294M 17.0G 19K none default/containers 3.76M 17.0G 19K none default/containers/a1 3.74M 17.0G 3.74M /var/lib/lxd/storage-pools/default/containers/a1 default/custom 19K 17.0G 19K none default/deleted 19K 17.0G 19K none default/images 290M 17.0G 19K none default/images/347f49fcb4ceada500d1bc53e0146b48b4e39074ef5895b184902d333120d5ed 290M 17.0G 290M none default/snapshots 19K 17.0G 19K none 但是,当我尝试searchdefault/deleted ,我找不到我的机器上; 我找不到上面的任何一个。 我可以看到挂载点,即zfs的安装位置 default/containers/a1 /var/lib/lxd/storage-pools/default/containers/a1 […]
Solaris的lsof(例如Blastwave或sunfreeware)的预编译包不显示端口打开,例如使用选项“-Pni”时。 lsof的创造者的智慧是我们自己编译lsof。 tar包,configuration等与大多数可以从源代码编译的开源软件包大不相同。 我在包装内的线索很less,以了解我的构build尝试有什么问题。 我有Sun Studio 11提供C编译器。 还安装了Gcc 3.4.5 系统是sparc,所有文件系统上都带有ZFS。 OS是Solaris 10,U7。 uname -a SunOS myhostname 5.10 Generic_141444-09 sun4u sparc SUNW,Sun-Fire-280R 源代码是4.82。 我使用默认选项和ZFS支持进行configuration。 无论是cc还是gcc,运行make时的失败都是相似的: gcc -Dsolaris=100000 -DHASPR_GWINDOWS -m64 -DHASIPv6 -DHASSOUXSOUA -DHAS_IPCLASSIFIER_H -DHAS_CRED_IMPL_H -DHAS_V_PATH -DHASZONES -DHAS_ZFS=1 -DZFS_VERS=15 -DHASUTMPX -DHAS_VSOCK -DHAS_STRFTIME -DLSOF_VSTR=\"5.10\" -O -c dnode.c dnode.c: In function `process_node': dnode.c:2082: error: structure has no member named `pcfs_entps' […]