我已经在RAID控制器后面安装了一些带有一些相当快的HDD的Solaris Express 11机器,将设备设置为启用压缩的zpool,并添加了镜像日志和2个caching设备。 数据集暴露为FC目标以供ESX使用,并且我已经用一些数据填充它来玩弄。 L2ARC部分填满(由于某种原因,不再填充),但我几乎看不到有任何用处。 zpool iostat -v显示过去并没有从caching中读取太多内容: tank 222G 1.96T 189 84 994K 1.95M c7t0d0s0 222G 1.96T 189 82 994K 1.91M mirror 49.5M 5.51G 0 2 0 33.2K c8t2d0p1 – – 0 2 0 33.3K c8t3d0p1 – – 0 2 0 33.3K cache – – – – – – c11d0p2 23.5G 60.4G 2 1 […]
使用FreeBSD 9,创build一个像这样的ZFS文件系统 zfs create tank/project1 zfs set sharenfs=on tank/project1 网上有很多关于在FreeBSD上设置NFSv3的方法,但是我找不到任何一个NFSv4,并且当NFS共享完成了ZFS。 比如说这个怎么说我必须用nfsd -u -t -n 4重新启动(NFSv3),但是我甚至没有nfsd 。 当我做 # echo /usr/ports/*/*nfs* /usr/ports/net-mgmt/nfsen /usr/ports/net/nfsshell /usr/ports/net/pcnfsd /usr/ports/net/unfs3 /usr/ports/sysutils/fusefs-chironfs /usr/ports/sysutils/fusefs-funionfs /usr/ports/sysutils/fusefs-unionfs # 我没有看到任何可以使用pkg_add安装的NFSv4服务器。 题 我如何安装和设置NFSv4,所以我可以挂载从Linux主机共享?
我使用ZFS运行FreeBSD主机。 假设我正在使用zfs send在远程主机上存储一系列增量式ZFS快照映像: zfs send -i zpool/data/foo@04hoursago zpool/data/foo@10hoursago > /nfs/backups/foo.zfs 或者,也许我想通过FTP服务器发送stream: % ftp backup ftp> put "| zfs send -i zpool/data/foo@04hoursago zpool/data/foo@10hoursago" /backups/foo.zfs 我想validation这个远程图像。 我想要打印此图像中的快照列表,或者select性地提取校验和或其他元数据,以帮助检查图像是否有效并包含像我期望的那样的快照。 我如何查询图像文件,看看里面是什么? 我已经尝试使用-nv ( no-op和verbose )标志zfs receive以列出映像中的快照,但这可能不适用于实时系统: # zfs receive -nv zpool < /nfs/backups/foo.zfs cannot receive new filesystem stream: destination 'zpool' exists must specify -F to overwrite it # zfs receive […]
这里是我的场景:我有两台服务器(还有很多,但是这个场景有两台),一台是Solaris备份服务器,另一台是CentOS Linux服务器。 每天晚上,CentOS服务器都会运行一个cron作业,以将自己同步到Solaris备份服务器。 完成之后,会将date和时间放入Solaris服务器上的特殊文件中。 Solaris服务器每分钟运行一次cron作业,如果它看到这个文件,就会抓取内容并使用它来创build快照。 结果非常好:每天都会自动运行备份,然后创build一个ZFS快照。 一直工作了两个多月。 我曾预料到现在我的空间不足,需要开始(手动)删除旧的快照。 但事实上,我在空间上很好。 我唯一担心的是,每天添加超过60张快照和更多快照,是否存在大量ZFS快照的已知问题? ZFS文件系统可以有最大数量的ZFS快照吗? 还是我可以继续积累快照,直到我空间不足?
我正在考虑将ZFS用于我自制的NASarrays。 我将有一个Ubuntu服务器10.04机器raidz 4硬盘。 我想在存储数据时使用快照function和重复数据删除function。 我没有太在意速度,因为机器是通过N无线networking访问,这可能会成为瓶颈。 那么是否有任何人在这种(或类似的)configuration上使用zfs-fuse 0.6.9的实际经验?
当用户login到系统并且没有主目录时,我们希望使用pam_mkhomedir创build用户的主目录。 这是一个普遍的做法。 以下是对pam_mkhomedir的简要说明: 如果会话开始时不存在,则pam_mkhomedir PAM模块将创build一个用户主目录。 这允许用户在不使用分布式文件系统或预先创build大量目录的情况下出现在中央数据库(例如NIS,kerberos或LDAP)中。 骨架目录(通常是/ etc / skel /)用于复制默认文件,并为创build设置一个umask。 但是,这是一个运行ZFS的FreeBSD 8.2系统。 我们需要首先执行一个ZFS命令,因为我们需要每个用户一个ZFS文件系统 。 pam_mkhomedir可以做一个mkdir ,但是我们需要做一些类似于zfs create /zpool/home/$USER 。 有谁知道在用户的第一次login会话期间是否可以使用PAM执行命令?
是否有可能让ZFS创build一个文件系统的快照,例如,只有在文件被更改时才使用pool / filesystem /。 而不是使用cron或其他东西来每5分钟自动创build一个快照,是否有可能让ZFS在文件更改后自动创build快照? 这是可能的,将涉及什么? 你会怎么做? 提前致谢。
假设以下驱动器设置(使用ZFS): 控制器1驱动器1驱动器4驱动器7驱动器10 控制器2驱动器2驱动器5驱动器8驱动器11 控制器3驱动器3驱动器6驱动器9驱动器12 VDEV设置: vdev1:drive1,drive2,drive3 vdev2:drive4,drive5,drive6 vdev3:drive7,drive8,drive9 vdev4:drive10,drive11,drive12 将所有的vdevs添加到同一个zpool,或者单独的zpools(每个vdev一个)是否更好? 另外,如果我们失去了一个单独的vdev,我们会失去整个arrays吗? 我们不需要一个地方的所有存储容量 – 从存储angular度来看,较小的存储容量将会被发现。 更新:对于3dinfluence有关启动池的问题,将在RAID1集上。 我不喜欢混合操作系统和我的多TB RAIDarrays。
我试图build立自己的基于FreeBSD + ZFS +标准组件的networking附加存储,但是有一些奇怪的性能问题。 硬件规格是: AMD速龙II X2 240e处理器 华硕M4A78LT-M LE主板 2GiB金士顿ECC DDR3(两根) 英特尔Pro / 1000 CT PCIenetworking适配器 5倍西数鱼子酱绿1.5TB 我从所有磁盘创build了一个RAID-Z2 zpool。 本教程后 ,我在该zpool上安装了FreeBSD 8.1。 SATA控制器在AHCI模式下运行。 输出zpool状态: pool: zroot state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM zroot ONLINE 0 0 0 raidz2 ONLINE 0 0 0 gptid/7ef815fc-eab6-11df-8ea4-001b2163266d ONLINE 0 0 0 gptid/80344432-eab6-11df-8ea4-001b2163266d ONLINE […]
使用sudo apt-get upgrade并重新启动升级我的ubuntu 13.10服务器后,我的zpool不会显示。 messier@ANDERSON:~$ sudo zpool status no pools available messier@ANDERSON:~$ sudo zpool import zpool: ../../lib/libzfs/libzfs_import.c:356: Assertion `nvlist_lookup_uint64(zhp->zpool_config, ZPOOL_CONFIG_POOL_GUID, &theguid) == 0' failed. messier@ANDERSON:~$ 我查看了linux github上的zfs,发现CentOS的一个修复程序是删除旧的内核模块,然后重新安装软件以获得新的内核模块。 $ find /lib/modules/$(uname -r)/extra -name "splat.ko" -or -name "zcommon.ko" -or -name "zpios.ko" -or -name "spl.ko" -or -name "zavl.ko" -or -name "zfs.ko" -or -name "znvpair.ko" -or -name "zunicode.ko" | […]