Articles of ZFS

创build基于zfs的完美镜像备份服务器的最佳方式

现有的系统:我有一个基于FreeBSD的备份/归档服务器,它每天晚上通过rsync从现场服务器中提取备份,并执行zfs快照来将备份内容归档到特定时间。 这导致的情况,在这个服务器上有很多… rsync任务, …存储池(服务器满载的每个备份任务一个), …具有不同创build规则(从每隔5分钟到每天)和不同保留时间(从3天到5年)的池上的快照任务, …已经存在的快照(〜8K)。 我现在要完成的任务是: 我想build立一个非现场服务器,这个服务器是这个备份服务器的完美镜像,每天与上述系统同步。 问题: 我还没有find任何解决scheme,这使我可以轻松地同步包括所有快照在内的整个服务器/ zfs文件系统。 我只知道您可以通过zfs send将单个快照发送到远程zfs文件系统。 很明显,不必在场外服务器上重新创build复杂的池和快照结构,因为我觉得这将是一个全面的维护明智的。 有什么解决scheme可以镜像一个完整的zfs文件系统,包括快照?

对于通过NFS导出的主文件服务器,使用8-10 SSD构build的zpool有什么好的configuration?

所以我们有一堆SSD磁盘,并希望将它们放在Solaris 10系统上的zpool中。 文件系统将通过NFS导出到大约50个Ubuntu客户端,这些客户端将把它挂载为他们的$ HOME。 我预计带宽不会超过1 Gbit / s,但由于桌面环境在客户端上运行,延迟应尽可能低。 什么是这样一个zpool的好configuration? 目前我们有一个raidz2有8个磁盘+2个热备份,但是我已经读过,因为一个raidz只是一个单独的vdev,性能仅限于单个磁盘的速度。 什么是可以调整的关键NFS服务器/客户端参数? 目前,我们使用NFS3和noatime和默认的rsize/wsize ,但也许有一个更好的select在Ubuntu上运行的客户端。

ZFS,mdconfig,GELI和我的头

我想创build一个encryption的虚拟磁盘,但我正在努力理解一些基本概念。 请纠正我,如果任何这些陈述是错误的: 我需要一个geli可以encryption并在系统中挂载的设备 一旦设备安装,我可以格式化,并创build一个文件系统 块设备可以使用mdconfig或ZFS卷 现在有些问题: 一个。 假设系统已经安装在ZFS上,创build用于mdconfig的基于文件的存储和本地ZFS卷有何不同? 湾 是否有可能创build一个encryption的虚拟磁盘,随着数据复制到磁盘增长,例如ZFS允许创build一个稀疏的卷 – 这是一个很好的select,任何替代品?

我能否阻止exportfs破坏ZFS sharenfs的导出?

我在Linux上使用ZFS作为运行Ubuntu Server 14.04 LTS的文件服务器。 ZFS池使用sharenfs属性共享多个数据集。 在ZFS之外还有一些在/etc/exports中定义的额外的NFS共享。 当exportfs -r运行时,所有的ZFSpipe理的共享drop- zfs get sharenfs tank/set仍然显示属性设置,但是直到我通过zfs set sharenfs=…重置属性zfs set sharenfs=…共享不能被挂载客户。 有没有办法阻止exportfs -r杀死ZFSpipe理的股份,或者在不干扰ZFS股票的情况下更新非ZFS股票? 作为最后的手段,是否有一个快速简单的方法让ZFS重新设置所有sharenfs属性?

来自基于guest虚拟机的目标的持久性ESXi iSCSI数据存储?

我正在为思科和VMware构build一个家庭实验室环境,这个环境也将成为一个NAS。 该系统运行ESXi v6.0裸机。 我的devise的一部分是我有一个带有LSI2008的联想TS440,我曾经使用VT-d给客人,而且客户机运行带有LIO的ZFS,提供一个LUN,然后我可以使用它作为其他VM的数据存储。 这个devise灵感来自于这个: 将ZFS服务器作为虚拟来宾进行托pipe performance是惊人的,它运行得很好。 但是我遇到的一个问题是,如果我重新引导ESXi主机(有时候我会这样做,因为这是一个实验室环境),那么使用iSCSI数据存储的虚拟机就不能上来了(它们是灰色的并显示无法访问。) 每次重新启动后,我都必须重新添加数据存储来修复它,不仅如此,而且启动阶段花费更长的时间,因为它试图到达iSCSI目标并失败。 主要的问题是这样的: 在尝试加载任何数据存储之前,可以configurationESXi以等待给定的虚拟机联机吗? 如果不是,我有什么select? 我知道我可以使用更大的ESXi启动磁盘,但是我宁愿能够对vmdisk进行ZFS化。

zfsonlinux,raidz1:两个磁盘损坏:我怎么可以使用dd / dd_rescue和欺骗zpool?

我有zfsonlinux(Centos 7)和raidz1。 我有麻烦:两个磁盘正在死亡。 第一个磁盘在SMART和Reallocated_Sector_Ct错误中存在Raw_Read_Error_Rate故障(磁盘已用尽空闲扇区来重新定位数据) 第二个磁盘有Reallocated_Sector_Ct错误,但仍有备份扇区。 我已经将第一个磁盘更改为新的磁盘,并且zfs已经开始重新同步。 开始的时候速度是〜2MB / s,但是一段时间后下降到20KB / s甚至更less,并且保持了几天的很小! 还有更多的错误: Jul 9 06:14:09 shaggycat-desktop smartd[966]: Device: /dev/sdf [SAT], FAILED SMART self-check. BACK UP DATA NOW! Jul 9 06:14:11 shaggycat-desktop smartd[966]: Device: /dev/sdf [SAT], 488 Currently unreadable (pending) sectors Jul 9 06:14:11 shaggycat-desktop smartd[966]: Device: /dev/sdf [SAT], 107 Offline uncorrectable sectors Jul 9 06:44:08 […]

在networkingSMB共享上查找器(OSX)中的文件夹变灰

忍受我,这是漫长而复杂的,但TL; DR OSX隐藏在文件上的额外属性(共享或本地)? 我们在企业环境中遇到问题。 我们有一个Oracle ZFS安装程序,我们的OSX机器是SMB安装卷。 用户试图在位置之间移动文件夹,并在中途取消,导致两个位置的文件夹变灰。 在Finder中它显示了一个创build和修改date06/13/1943 06:13:00文件夹从我们的Linux工作站,当我们统计文件,它显示正确的创build和修改date。 然后,我们从Linux工作站或OSX工作站触摸文件,并通过terminal,我们可以看到该文件夹​​,甚至使用该文件夹上的打开命令。 但通过Finder,它保持灰色,无法打开。 这影响了访问这个文件的所有OSX工作站。 他们都没有看到,但Windows和Linux都很好。 我们最终使用了弃用的GetFileInfo和SetFile命令来解决这个问题。 我对社区的问题是,这些属性在哪里存储,因为它们在文件中使用ls -la或stat不可见。 但是当我们用GetFileInfo查看它的时候。 有没有人知道如果OSX做一些奇怪的Sambacaching并将其存储在服务器上? 或把这个在一个愚蠢的.DS_Store文件? 帮帮我!!! PLZ

针对性能原因,针对ZFSbuild议的最大80%使用率目标是否适用于SSD支持的池?

Solaris ZFS最佳实践指南build议保持ZFS池利用率低于80%以获得最佳性能: 将池空间保持在80%以下,以保持池性能。 目前,如果池很满并且文件系统经常更新(例如,在繁忙的邮件服务器上),池性能可能会降低。 完整的池可能会导致性能损失,但没有其他问题。 如果主工作负载是不可变的文件(只写一次,永远不要删除),那么可以将池保持在95-96%的利用率范围内。 请记住,即使大部分静态内容在95-96%范围内,写入,读取和重新同步性能可能会受到影响。 关于如何实现这一点的一个共同的build议似乎是使一个文件系统或卷不被用来存储任何数据,但是其大小预留约为池容量的20%。 我完全可以看到,ZFS的copy-on-write行为,这将如何帮助旋转存储,因为旋转存储往往会受到相当严重的IOPS约束,因此给文件系统空间做大量的连续分配是非常有意义的(即使他们不会一直这样使用)。 然而,我不确定80%的目标对于固态存储有多less意义,除了每千兆字节好一点的价格之外没有任何地方接近IOPS旋转存储的限制。 出于性能方面的考虑,SSD支持的ZFS池应该限制在不到80%的容量利用率,就像硬盘支持的池一样,或者SSD支持的池可以满足更多而不会对I / O性能产生重大不利影响?

zpool忘记池中的所有数据设备:如何使它们再次联机?

我的Debian服务器在Linux上运行ZFS。 今天,由于软件升级,我不得不重启两次。 第一次重启是因为ZFS从0.6.4-1.2-1更新到0.6.5.2-2-wheezy,当我之后访问我的主目录在池中时,这很好。 最后一次重新启动后,zpool无法导入池: # zpool import pool: storage id: 4490463110120864267 state: FAULTED status: The pool metadata is corrupted. action: The pool cannot be imported due to damaged devices or data. see: http://zfsonlinux.org/msg/ZFS-8000-72 config: storage FAULTED corrupted data logs sda3 ONLINE # zpool import storage cannot import 'storage': I/O error Destroy and re-create the pool […]

先前镜像的zpool vdevs现在是非镜像的,无法重新镜像

在FreeBSD 10.2-RELEASE上,我在开发(幸运)环境中进行了以下设置,直到昨天: NAME STATE READ WRITE CKSUM bigpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 multipath/faba_lun0 ONLINE 0 0 0 multipath/fabb_lun0 ONLINE 0 0 0 mirror-1 ONLINE 0 0 0 multipath/faba_lun1 ONLINE 0 0 0 multipath/fabb_lun1 ONLINE 0 0 0 mirror-2 ONLINE 0 0 0 multipath/faba_lun2 ONLINE 0 0 0 multipath/fabb_lun2 ONLINE 0 […]