我有一个带有两个磁盘的ZFS zpool,镜像configuration是da0和da1 。 da1失败了,所以我用da2replace了它 zpool replace BearCow da1 da2 这运行了几个小时,在此期间, zpool status显示arrays正在重置。 完成后, zpool status显示重新启动程序已完成,但数组仍旧降级… 我尝试了zpool scrub和zpool clear ,但数组仍显示为降级: [root@chef] ~# zpool status BearCow pool: BearCow state: DEGRADED scrub: scrub completed after 0h20m with 0 errors on Tue Oct 9 16:13:27 2012 config: NAME STATE READ WRITE CKSUM BearCow DEGRADED 0 0 0 mirror DEGRADED […]
我有一个自动挂载单独的池,有嵌套的挂载点的问题。 我正在使用ZfsOnLinux 0.6.2。 目前的情况如下: zpool1 —> /var zpool1/log —> /var/log zpool1/mail —> /var/mail 现在我需要为数据库添加一个单独的zpool。 为了保持目录层次的一致性,我想到了这一点: zpool2 —> /var/db 现在,问题是,当zpool2首先挂载,zpool1无法挂载(这是逻辑)。 有没有一种方法可以强制使用池安装顺序来允许在zpool1中安装zpool2,除了使用传统的安装选项? 像zpools依赖? 或者我应该不惜一切代价避免这种嵌套坐骑?
我最近在文件服务器上安装了freebsd 8,并从4个驱动器创build了一个raidz池。 它工作正常,除了文件系统没有自动挂载启动。 zpool状态和zfs列表显示没有任何错误,但是我必须为池和文件系统执行zpool导出和导入以进行挂载,因此可以从networking访问共享。 这也发生在我有一个vmwaretesting系统,也运行freebsd 8(两种情况下都是x64)。 手动导入后,一切正常。 我认为这是freebsd 8中的一个小错误,因为它发生在两个不同的安装,我可以用一个小脚本解决它,但是什么是(正确的)解决方法?
我使用ZFS并喜欢它。 我知道BtrFS也支持校验和。 我已经被告知校验和在Windows 2008中可用,但是我一直无法validation这一点。 在任何平台上,除了ZFS和BtrFS之外,还有校验文件系统吗?
这是关于ZFS和RAID-Z的一个有些理论上的问题。 我将使用一个三磁盘单奇偶校验arrays作为示例,但是问题可以扩展到任何数量的磁盘和任何奇偶校验。 假设我们在池中有磁盘A,B和C,并且它是干净的。 现在假设我们为了replace磁盘C而物理地添加磁盘D,并且磁盘C仍然正常工作,并且只是在预防性维护中被replace。 一些pipe理员可能只是推C和安装D,这是有点更多的组织,因为设备不需要改变ID – 但是这会使arrays暂时退化,因此对于这个例子,假设我们安装D,没有离线或删除C. Solaris文档指出我们可以用一个命令来replace一个磁盘,而不是首先使用它: zpool replace pool CD 这应该导致重塑到D上。让我们说,重新同步沿着“光标”向下“进行”。 (我不知道内部实现中使用的实际术语。) 假设现在通过重新同步中途,磁盘A失败。 从理论上讲,这应该是可恢复的,因为光标B和D包含足够的奇偶性,并且在光标B和C之下包含足够的奇偶性。 但是,这是否实际上是可以回收的,这在ZFS的内部devise决策中是我没有意识到的(在某些情况下手册没有提到)。 如果ZFS继续向光标下面的C发送写入,那么我们没事。 但是,如果ZFS内部对待C,就好像它已经消失一样,只能从A和B之间的奇偶校验重新同步D,并且只能在光标下面写入A和B,然后我们要敬酒。 一些试验可以回答这个问题,但我希望也许有人在这里已经知道ZFS处理这种情况的方式。 提前感谢您的任何见解!
我在raidzconfiguration中有4个2TB USB磁盘的zpool: [root@chef /mnt/Chef]# zpool status farcryz1 pool: farcryz1 state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM farcryz1 ONLINE 0 0 0 raidz1 ONLINE 0 0 0 da1 ONLINE 0 0 0 da2 ONLINE 0 0 0 da3 ONLINE 0 0 0 da4 ONLINE 0 0 0 为了testing池,我模拟驱动器故障,从其中一个驱动器拔下USB电缆,而不使其脱机: [root@chef /mnt/Chef]# zpool status […]
我对ZFS相当陌生,我有一个简单的带8个驱动器的镜像存储池设置。 经过几个星期的运行,一个驱动器似乎产生了很多错误,所以我把它取代了。 再过几个星期,现在我发现在池周围出现了小的错误(请参阅下面的zpool status输出)。 我应该担心这个吗? 如何确定错误是否表明驱动器需要更换? # zpool status pool: storage state: ONLINE status: One or more devices has experienced an unrecoverable error. An attempt was made to correct the error. Applications are unaffected. action: Determine if the device needs to be replaced, and clear the errors using 'zpool clear' or replace the device with […]
当我阅读man zfs for zfs receive我看到 -F Force a rollback of the file system to the most recent snap- shot before performing the receive operation. If receiving an incremental replication stream (for example, one generated by "zfs send -R -Fi -iI"), destroy snapshots and file systems that do not exist on the sending side. 但我不太明白-F实际上会做什么。 如果我的zfs […]
假设我有一个包含100个快照的数据集,并且想在所有快照中find名为“cache”的所有文件夹。 我想实际上释放空间,而不是将其隐藏在快照层,所以做一个克隆和删除,然后采取新的快照似乎没有做我想要的。 任何半自动的方式呢? 一些环绕zfs列表-t快照,zfs克隆,zfs升级,zfs快照? (从https://superuser.com/questions/313197交叉发布,因为我看到这有更多的ZFS的东西)
有没有其他的Unix发行版可以读写ZFS文件系统? 我知道它在FreeBSD中目前是不稳定的:(我之所以问这个问题是因为我喜欢ZFS,但是不太适合Solaris。