Articles of ZFS

为什么启动后ZFS文件系统不共享?

我打开sharenfs的ZFS文件系统,但重新启动后,它不共享。 我需要再次打开文件系统共享。 这里看起来如何: user@ht ~ $ sudo zfs get sharenfs NAME PROPERTY VALUE SOURCE family sharenfs off local family/album sharenfs on local 正如你可以看到sharenfs在on 。 但文件系统不共享: user@ht ~ $ showmount -e Export list for ht: user@ht ~ $ 当我再次设置sharenfs 。 文件系统是共享的,我可以挂载它: user@ht ~ $ sudo zfs set sharenfs=on family/album user@ht ~ $ showmount -e Export list […]

我应该如何划分我的ZFS RAID 10arrays中的4个磁盘?

我的家庭服务器上实际上有4个SATA 3.0磁盘,为了在我的10个RAID ZFSarrays上获得最佳性能,我想组织它们 希捷ST2000DL003 – 容量:2TB,带宽:6GB /秒,高速caching:64Mo, 5900 RPM,4K物理扇区 希捷ST2000VN000 – 容量:2TB,带宽:6GB /秒,caching:64Mo, 5900转,4K物理扇区 2个日立HUA723020ALA640 – 容量:2TB,带宽:6GB /秒,caching:64Mo, 7200转,512B物理扇区 我应该把希捷和日立的驱动器放在一起,还是我应该制造两个希捷/日立镜像arrays来获得最佳性能?

没有RAID的ZFS是否有意义?

是否可以使用没有RAID的ZFS? 与使用BTRFS相比,这样做有没有什么优势?

多个2 TB LUN – ZFS或ext4-LVM

我打算部署一个基于Ubuntu 12.04的归档系统。 由于SAN存储的限制,它只能为我提供2TB的LUN。 因此,我必须合并多个2TB LUN才能达到所需的空间(4.5TB,预计每年增长高达1TB)。 SAN存储具有自己的RAID保护(是的,不是替代备份,我知道),所以我不需要基于软件的RAID保护。 请提供一些关于我应该如何“结合”这些LUN的build议: 将它们组合成一个ZFS池,或者 将它们组合成一个LVM VG 如果可能的话,也请告诉我两者的缺点/好处。 (我在互联网上可以find的假设ZFS / LVM将build立在RAIDZ / MDRAID提供RAID的个别磁盘上,所以真的不适合我的情况)。 注意:也许我应该使用更好的SAN存储,但是“pipe理”决定使用这个特定的SAN存储,而我的双手是捆绑在一起的。

(何时?)OpenSolaris支持ZFS重复数据删除和l2arc

ZFS中的重复数据删除和L2ARC会很好。 OpenSolaris是否支持它们? 我无法弄清楚它们在哪个版本的Solaris中,以及如何映射到OpenSolaris。 他们在吗? 如果没有,你知道他们什么时候安排。

zfs在一个池中混合RAID级别

我读过“ 不build议将RAIDtypes混合在一个池中 ”,这意味着这是可能的。 为什么不推荐? 在我的设置中,非常重要,重要和不重要的文件混合在一个池中为不同的文件系统dynamic分配不同的RAID-Z级别是非常可取的。 第二个问题是:如果磁盘开始失败会发生什么? 我明白,我不能够访问不足够的文件系统。 但是如果被搜查到的(具有足够的冗余来处理故障)嵌套在失败的文件系统中呢? 他们可以通过? 怎么样? 我打算使用ZOL,版本号0.6.0.80,它与zpool版本28和zfs版本5兼容。

FreeNAS:“/ var:写入失败,文件系统已满”

它说,通过shelllogin到我们的FreeNAS /var: write failed, filesystem is full 所以我做了 > df -h Filesystem Size Used Avail Capacity Mounted on /dev/ufs/FreeNASs2a 927M 358M 494M 42% / devfs 1.0K 1.0K 0B 100% /dev /dev/md0 4.6M 1.8M 2.4M 43% /etc /dev/md1 824K 2.5K 756K 0% /mnt /dev/md2 149M 149M -12M 109% /var /dev/ufs/FreeNASs4 20M 1.7M 17M 9% /data raid-5×3 […]

为什么使用没有ECC RAM的ZFS“不推荐”?

我一直在阅读FreeNAS和RAID Z,而人们不断提及的一个问题是,你不应该在没有ECC RAM的机器上使用ZFS(或者更确切的说是RAID Z)。 我想知道这是什么原因。 这是RAID Z的具体问题吗? ZFS与其他文件系统不使用ECC RAM有什么特别的风险? 或者,这只是一个普遍关心的腐败内存传播到一个文件系统,否则将纠正错误,这是因为它支持自修复冗余arrays ?

ZFS在添加后没有扩展可用空间

我最近通过增加了两个驱动器扩展了我的存储池“zstorage”。 在RAID-Z中有3个3TB磁盘驱动器,并且在RAID-Z中也增加了两个1.5TB磁盘驱动器(据我所知,它和镜像效果是一样的)。 我知道这不是最有效的设置,但这是我的驱动器。 我预计在平价的情况下,我应该使用第一套的6TB和第二套的1.5TB,共计7.5TB。 添加后,一切看起来都很好,从下面的命令中可以看到,现在有更多的空间列在zpool列表中,驱动器显示为我所期望的zpool状态。 但是,可用磁盘空间量并未增加,如下所示。 任何想法,为什么我没有得到更多的磁盘空间呢? 我似乎没有从添加两个1.5TB驱动器获得什么。 kevin @ atlas:〜$ sudo zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT zstorage 10.8T 7.79T 3.05T 71% 1.00x ONLINE – kevin @ atlas:〜$ sudo zfs list -t all NAME USED AVAIL REFER MOUNTPOINT zstorage 5.19T 1.48T 5.19T /zstorage kevin @ atlas:〜$ sudo zpool status -v […]

现成的独立服务器中有16个HDD托架?

我们目前正在使用定制服务器作为独立的备份机器(使用rsync / zfs快照)。 他们运行freebsd(我们可以使用ZFS),并且有16个SATA硬盘连接在一起,因为直接的jbod和zfs处理剩下的东西。 我们遇到了很多麻烦,并花费了大量的时间和金钱维护这些东西,我正在考虑用大型经销商(惠普,戴尔,甲骨文等)的支持服务器来取代它们。 我们唯一真正的要求是 它需要容纳16个硬盘(和一个内部启动盘) 它需要是一个独立的服务器(不是DAS / SAN / NAS设备..我们想要在其上运行一个适当的操作系统) 我们想运行ZFS进行磁盘pipe理 它需要负担得起。 我们不需要任何奇特的function,我们基本上只需要SATA磁盘来运行arrays,而不是很多的计算能力。 但是我猜想要么是FreeBSD或者solaris是zfs所需要的。 就像我说的,我们自己一直在做这个,我们只是觉得它为系统pipe理员花了很多时间(有很多的故事,如backblaze博客自己做的)。 但是我们正在寻找现成的解决scheme,所以我们可以去做其他事情。 有没有人有任何build议? 谢谢!