Articles of ZFS

FreeNAS vs OpenIndiana在速度,驱动程序可用性,健壮性方面?

这个问题与NexentaStor vs FreeNAS和FreeNAS相关吗? 我一直在使用OpenIndiana / Illumos作为我的自buildNAS的操作系统。 没有什么可说的: 在FiberChannel设备上创buildZFS 设置本地networking 启用NFS 我还写了一些Bash脚本,这些脚本是用来写入zfs get all文件系统的,所以我可以在客户端监视磁盘使用率,压缩率和重复数据删除比率等事情。 我不需要任何其他function。 在速度,驱动程序可用性和健壮性方面,FreeNAS如何与OpenSolaris进行比较?

“zfs send”报告的大小是准确的还是估计的?

考虑下面的命令和输出: zfs send -Pvi \ tank/vms/langara@zfsnap-2016-05-11_00.00.00–1w \ tank/vms/langara@zfsnap-2016-05-13_00.00.00–1w \ | dd > /dev/null 运行1: incremental zfsnap-2016-05-11_00.00.00–1w tank/vms/langara@zfsnap-2016-05-13_00.00.00–1w 4903284160 size 4903284160 17:29:42 1244483472 tank/vms/langara@zfsnap-2016-05-13_00.00.00–1w 17:29:43 2487508120 tank/vms/langara@zfsnap-2016-05-13_00.00.00–1w 17:29:44 3741453864 tank/vms/langara@zfsnap-2016-05-13_00.00.00–1w 9582310+895 records in 9582799+1 records out 4906393272 bytes (4.9 GB) copied, 3.94883 s, 1.2 GB/s 运行2: incremental zfsnap-2016-05-11_00.00.00–1w tank/vms/langara@zfsnap-2016-05-13_00.00.00–1w 4903284160 size 4903284160 17:30:07 1209666712 tank/vms/langara@zfsnap-2016-05-13_00.00.00–1w 17:30:08 […]

Linux上的ZFS的配额使用情况如何?

我有一个根据ZFS的用户是在他们的配额。 但是,我无法find他们如何使用他们所有的空间。 此文件系统没有后代文件系统,根据手册页the userquota space calculation does not include space that is used by descendent datasets, such as snapshots and clones. 为什么zfs会在很大程度上发现和不同意? # zfs get -H userquota@user1 zpool/zfs1 && zfs get -H userused@user1 zppol/zfs1 zpool/zfs1 userquota@user1 20G local zpool/zfs1 userused@user1 20.0G local # find $(zfs get -H -o value mountpoint zpool/zfs1) -user user1 -print0 | […]

ZFS一直在故障相同的设备

我们的存储服务器有一些问题,前面我们有一个损坏的磁盘(WD 4TB RE SAS),虽然RAID控制器( LSI MegaRAID 9271-8i )保持磁盘联机(状态:ok)。 只有媒体错误显示1错误。 我们决定保存并更换磁盘,在重新标记为(重新同步)的情况下,重新同步磁盘,尽pipe只有一个磁盘出现1个读取错误。 今天的韧性是完整的(没有腐败,所有oke),我开始擦洗,遇到了这个: zpool status pool: data state: DEGRADED status: One or more devices could not be used because the label is missing or invalid. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Replace the device using 'zpool replace'. see: http://zfsonlinux.org/msg/ZFS-8000-4J […]

zfs是否发送清理发送的数据?

就我所知,ZFS作为一个文件系统在每次访问数据时都会检查数据错误。 因此,我会假设在发送数据之前,它实际上执行了一个类似于擦洗的操作,从而确保发送数据的完整性。 我的问题是:这是真的吗? 如果没有,那么在zfs发送关于该特定数据集之前,执行zfs scrub还有什么额外的好处。

zpool autoexpand不会更改池的大小

我们有一些旧的Solaris 10服务器(SunOS名称为5.10 Generic_142909-17 sun4u sparc SUNW,Sun-Fire-V490)现在已连接到我们的新IBM SAN。 这些Solaris服务器仍然主要是UFS文件系统。 前一阵子,我们从SAN中添加了一个新的2TB LUN到一个服务器,并开始将它作为一个Zpool文件系统定义在其上 – 这非常简单。 它工作得很好! 最近我们发现2TB是不够的,所以我们把LUN从2TB扩展到3TB。 显示zpool list NAME SIZE ALLOC FREE CAP HEALTH ALTROOT solarisSYS 1.98T 1.84T 146G 92% ONLINE – …在LUN扩展之前和之后,正如人们所期望的那样。 现在显示luxadm display # luxadm display /dev/rdsk/c4t600507640081017A080000000000004Dd0s2 DEVICE PROPERTIES for disk: /dev/rdsk/c4t600507640081017A080000000000004Dd0s2 Vendor: IBM Product ID: 2145 Revision: 0000 Serial Num: 010020405e82XX00 Unformatted capacity: 3145728.000 […]

raidz1 vdev中的zfs校验和错误,但不在磁盘中

我正在备份存储在由2个硬盘的单个raidz vdev组成的zpool中的数据。 在这个操作中,我得到校验和错误,现在状态如下所示: pool: tmp_zpool state: ONLINE status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://zfsonlinux.org/msg/ZFS-8000-8A scan: none requested config: NAME STATE READ WRITE CKSUM tmp_zpool ONLINE 0 0 2 […]

有没有一个工具来pipe理知道ZFS的FreeBSD jails?

FreeBSD下的ZFS允许将文件系统分配给jail,这样jail中具有相应权限的帐户就可以访问文件系统,创build新的从属文件系统等等。 至less在8-STABLE中,这些function并没有集成到现有的/etc/rc.d/jail脚本中。 基本过程如下所示: sysctl -w security.jail.enforce_statfs=0 sysctl -w security.jail.mount_allowed=1 zfs set jailed=on <filesystem> zfs jail <jid> <filesystem> 还需要在jail中暴露zfs设备节点。 与此同时,似乎有很多工具(ezjail,jailer,warden,以及通常是/usr/ports/sysutils/*jail* )声称更简单/更好/更强大/等等,但大多数其中似乎只是轻微维护,而不是标准的监狱剧本胜利。 我想避免重新发明轮子。 那里有一个与ZFS集成的监狱pipe理工具吗? 我正在寻找一些能够在启动jail时设置必要的devfs规则,sysctl设置和zfs属性的东西……理想情况下,允许基于名称的引用对jails进行访问,派对工具悲惨地从股票监狱脚本丢失。

Linux / Ubuntu上的ZFS:在Ubuntu从13.04升级到13.10后,帮助导入zpool,设备ID已经更改

我已经从版本13.04更新了Ubuntu到版本13.10,只是发现SATA磁盘ID已经改变,我的ZFS池现在失败了。 在新的Ubuntu 13.10上,磁盘ID现在是ata- *而不是scsi-SATA_ *。 这是更新后的池状态: pool: nestpool state: UNAVAIL status: One or more devices could not be used because the label is missing or invalid. There are insufficient replicas for the pool to continue functioning. action: Destroy and re-create the pool from a backup source. see: http://zfsonlinux.org/msg/ZFS-8000-5E scan: none requested config: NAME STATE READ […]

Gluster + ZFS,基准testing期间死锁:zfs_iput_taskq 100%cpu

首先是一些背景:我在一家运行PHP-web应用程序的公司工作。 我们在几个networking服务器上通过NFS安装了一个存储后端。 今天,如果一个networking服务器通过NFS写入一个文件,有时这个文件在几分钟之后才会出现在其他挂载的客户端上。 这也不是多余的,所以我们不能进行任何“隐形”维护。 我一直在考虑迁移到一个GlusterFS解决scheme(两个或三个复制砖/冗余机器)。 现在,使用XFS作为Gluster后面的存储文件系统运行得非常好,性能更好。 Gluster也似乎没有上面提到的同步问题。 但是,我想用ZFS作为后端文件系统,原因在于; 廉价的压缩(目前存储1.5TB未压缩) 很容易扩大存储量“活”(一个命令,比较LVM的混乱) 快照,Bit-rot保护和所有其他ZFS荣耀。 在我的解决scheme的演示设置中,我有三台服务器,每台服务器上有一个独立的磁盘,带有一个ZFS后端池的复制Gluster。 我在Linux(0.6.2)+ GlusterFS 3.4上使用CentOS 6.5和ZFS。 我也尝试与Ubuntu 13.10。 一切都在VMware ESX中。 为了testing这个设置,我把音量挂在Gluster上,然后运行BlogBench( http://www.pureftpd.org/project/blogbench )来模拟加载。 我遇到的问题是,在testing结束时,ZFS存储似乎陷入了僵局。 所有这三台机器都有以90-100%CPU运行的“zfs_iput_taskq”,并且testing冻结。 如果我中止testing,死锁不会消失,只有选项似乎是硬重启。 我努力了: 禁用一次 禁用调度程序(noop) 不同的压缩/不压缩 直接在ZFS上的Blogbench工作正常 Gluster + XFS上的Blogbench作为后端工作正常 想法? 我应该放弃ZFS和其他东西? 备择scheme? 问候奥斯卡