我们基于FreeNAS 8的100TB NAS由于停电而意外关机。 打开后,100TB zpool“projects”被卸载,状态为“FAULTED”。 我已经试过zpool import -fFX ,它运行了大约20个小时,但没有发生任何事情。 我已经用重置button重新启动服务器,因为kill -9和重新启动命令不起作用。 一些输出: [root@Projects_new] ~# zpool import pool: projects id: 8560768094429092391 state: FAULTED status: The pool metadata is corrupted. action: The pool cannot be imported due to damaged devices or data. The pool may be active on another system, but can be imported using the '-f' […]
最近停止使用FreeNas,我已经build立了一个zfspool,共有3个在iscsi上共享的范围。 我现在在一个RHEL 7.2服务器上使用这些磁盘,并想使用iscsi来转换现有的zfspool(就像我一直在用FreeNas做的那样) 我已经安装并设置了zfs,这些zfs提取了现有的池: [root@sycamore ~]# zpool status pool: STORAGE state: ONLINE status: Some supported features are not enabled on the pool. The pool can still be used, but some features are unavailable. action: Enable all features using 'zpool upgrade'. Once this is done, the pool may no longer be accessible by software that does […]
我用已经在我的游泳池中使用过的typesreplace了一个坏的驱动器一段时间。 我面临的问题是重启过程似乎卡在重启循环中。 每当我检查zpool status我都会看到几秒钟前启动的重启过程。 进度百分比停留在0% 例如 扫描:自2017年4月1日09:13:27以来进展顺利 扫描:自2017年6月1日09:15:10以来进展顺利 扫描:自2017年4月1日09:18:11以来进展顺利 … 我不知道出了什么问题,从来没有遇到过这个问题。 我将不胜感激来自社区的build议。 root@nas:~# dmesg | grep ZFS [5.224533] ZFS: Loaded module v0.7.0-rc4_36_g2d82116e8, ZFS pool version 5000, ZFS filesystem version 5 root@nas:~# uname -a Linux nas 4.9.0-0.bpo.3-amd64 #1 SMP Debian 4.9.25-1~bpo8+1 (2017-05-19) x86_64 GNU/Linux root@nas:~# zpool status [code] pool: naspool state: DEGRADED status: One or more […]
我从NEC的白皮书“ 磁盘arrays中的无声数据损坏”中了解到: 某些SAS驱动器应具有“T10-DIF”function来检测静默数据损坏; 而 “对于基于ATA的驱动器(包括SATA),没有标准可以防止存储技术堆栈中的SCSI级别的无声数据损坏。” 白皮书的重点是告诉人们NEC专有技术,以防止SATA驱动器中的无声数据损坏。 但是,ZFS似乎至less提供了相当的保护,对我来说比较好,因为它不是专有的(除了Oracle最新的ZFS版本)。 我有两个问题: 我是否正确地认为,使用带有T10-DIF SAS驱动器的ZFS,与单独使用这两种技术中的一种技术相比,可以提供额外的防止无声数据损坏的保护层? 鉴于T10-DIF SAS驱动器似乎并不是很容易获得,那么有什么理由select非T10-DIF SAS驱动器,而不是相同的SATA驱动器,反之亦然? *通过这一点,我的意思是比较像喜欢:例如企业级SAS驱动器从一个给定的制造商与企业级SATA驱动器从同一制造商。
所以我有一个我们已经使用了一段时间的备份服务器,它是一个运行zfs并通过NFS提供服务的FreeBSD服务器。 导出很简单: /backup/vm -maproot=root -alldirs 。 如果相关,则通过zfsconfiguration: zfs get sharenfs backup/vm sharenfs -maproot=root -alldirs local 它运行良好,我们甚至还恢复了这些备份。 今天,我偶然发现,从nfs共享中读取的文件与写入的文件(以及服务器上的文件)不匹配。 为了演示:在我们的服务器上 pg11.txt (downloaded on the server) pg11.txt.1 (uploaded by a client over nfs) 这两个是爱丽丝梦游仙境,从这里下载: http : //www.gutenberg.org/cache/epub/11/pg11.txt 在nfs服务器上: md5 pg11.txt* MD5 (pg11.txt) = eff1e5d84df1d3a543d1c578192a2367 MD5 (pg11.txt.1) = eff1e5d84df1d3a543d1c578192a2367 到现在为止还挺好。 现在在一个客户端上: md5sum pg11.txt* 4d79d99b8eebe364cddf5ce42949bc3e pg11.txt eff1e5d84df1d3a543d1c578192a2367 pg11.txt.1 什么? 从客户端读取pg11.txt我可以很容易地find像这样的行: […]
在Solaris 11.3上安装ZFS L2ARCcaching是否有一个好方法? L2ARC旨在忽略从文件中顺序读取的块。 这对于正在进行的操作是有意义的,但是使初始预热或基准testing中的高速caching变得困难。 另外,高度分散的文件可能会因在L2ARC中caching的连续读取而受益匪浅(因为磁盘上是随机读取的),但是就目前的启发式而言,即使L2ARC仅占满10%,这些文件也永远不会被caching。 在以前的Solaris 10和11发行版中,我成功地在每个文件上连续使用了dd两次。 第一个dd将文件读入ARC,第二个dd似乎让缓冲区发痒,所以他们有资格进行L2ARCcaching。 相同的技术在Solaris 11.3中似乎不起作用。 我已经证实,有问题的文件有一个8Klogging, 我试过设置zfs_prefetch_disable但这对L2ARC行为没有影响 更新: zfs_prefetch_disable结果是重要的,请参阅下面的答案。 如果没有好的办法做,我会考虑使用一个工具,产生100%的文件随机读取。 考虑到高速caching现在保持在11.3,这可能是值得的。 像这样的工具存在吗?
我一直在使用LVM快照来备份MySQL数据库。 FLUSH TABLES WITH READ LOCK被发出,然后lvcreate –snapshot –size 4G等。由于数据库在快照处于活动状态时处于活动状态,因此snap_percent (用于跟踪文件系统原始状态的快照存储量拍摄快照的时间)开始增加。 这个snap_percent是每天都进行监控的,如果达到80%,这个–size就会增加。 我的问题是ZFS中是否有等效的统计信息或属性,用于确定快照消耗的空间量占池中剩余空间的百分比? 很明显,我不需要将–sizeparameter passing给zfs snapshot但是如何确定基于该快照的克隆是否接近池的限制。 希望这是有道理的,现在看来,这听起来像是一个复杂的问题。
我ZFS每月清理一次,72TB需要24小时。 对于我可以find多less次我应该擦洗的是: 非常繁忙的泳池,每周一次 不是那么繁忙的水池,每月一次 或运行擦洗,测量时间,并相应地进行调整。 但在线碎片整理呢? 题 在线碎片整理被认为是像擦洗一样的好习惯吗? 如果我应该多久降级一次?
我有一个已经运行了一段时间的ZFS文件系统,最近我有机会升级它(最后!)到最新的ZFS版本。 我们的数据不会尖叫重复数据删除,但我坚信基于小testing,我们可以从5-10%的空间中获取任何地方的空间。 我已经在文件系统上启用了重复数据删除function,新文件正在慢慢地被重新数据删除,但是大部分(95%以上)的数据已经存在于文件系统中。 除了将数据池移出然后重新复制之外,有没有办法触发现有数据的重复数据删除扫描? 它不一定是asynchronous的或活的。 (和FYI没有足够的空间来复制整个文件系统到另一个,然后只是切换安装。)
我们有一个由两台OpenSolaris 2009.06 NFS服务器pipe理的光纤通道。 服务器1正在pipe理3个小容量(300GB 15K RPM驱动器)。 它像一个魅力工作。 服务器2正在pipe理1个大容量的32个驱动器(2TB 7200 RPM驱动器)RAID6。 总大小是50TB。 两台服务器都有Zpool版本14和ZFS版本3。 在几个月前安装了50TB的缓慢服务器,工作正常。 用户填满2TB。 我做了一个小实验(创build了1000个文件系统,每个都有24个快照)。 一切尽在创build,使用快照访问文件系统,NFS挂载其中的一些。 当我试图破坏1000个文件系统时,第一个fs花了几分钟,然后报告fs被使用失败。 我发出系统关机,但花了超过10分钟。 我没有再等了,关掉了电源。 现在启动时,OpenSolaris挂起。 32个驱动器上的指示灯快速闪烁。 我离开了24小时 – 仍在闪烁,但没有进展。 我在创buildzpool之前启动了系统快照,并尝试导入zpool。 pfexec zpool import bigdata 相同的情况:指示灯闪烁,导入永久挂起。 跟踪“zpool导入”过程只显示ioctl系统调用: dtrace -n syscall:::entry'/pid == 31337/{ @syscalls[probefunc] = count(); }' ioctl 2499 有没有办法来解决这个问题? 编辑:是的。 把OpenSolaris升级到svn_134b的诀窍是: pkg publisher # shows opensolaris.org beadm create opensolaris-updated-on-2010-12-17 beadm mount […]