Articles of ZFS

如何使RAID控制器重新扫描设备

我有以下设置: 一台带有两个LSI MegaRAID SAS 9380-8e控制器的服务器,它们都连接到两个60托架的磁盘架,而大致遵循Edmund White的devise(请参阅https://github.com/ewwhite/zfs-ha/wiki )。 目标是复制确切的设置,但它目前是中间移植。 在第一个架子接线后,两个控制器都看到了60个磁盘,并且多path设置工作正常。 当添加第二个磁盘架时,在两个控制器已经完成报告的60个磁盘上还有一些旧的RAIDconfiguration。 使用第一个控制器,我从磁盘上删除configuration,并将它们设置为JBOD。 所有60个磁盘现在都可以在操作系统中看到,可以注册多path,但只报告一条path(通过控制器1),第二个控制器仍然将所有60个磁盘报告为外部(UGood F),似乎没有办法强行使控制器重新扫描设备或忘记当前configuration为这个架子: # /opt/MegaRAID/storcli/storcli64 /c1 /e71 /sall show | head -n20 Controller = 1 Status = Success Description = Show Drive Information Succeeded. Drive Information : ================= ———————————————————————– EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp ———————————————————————– 71:0 74 UGood […]

减less离线备份的ZFSstream大小

注意:自从我第一次问到这个问题以来,我对这个问题的理解发生了很大的变化(请参阅下面的编辑2),但是我保留了原来的版本。 我们已经组build了一个非现场备份系统(仍在内部testing),通过ZFS发送/接收进行数据传输。 两端的机器都是FreeBSD 8.2。 总的来说,设置运行良好。 但是,显然有一些我不了解的ZFS快照stream大小。 我很难find有关这方面的信息,所以我希望有更多经验的人能够启发我。 在源机器上,我有一个约47GB的文件系统,我需要传输快照: # zfs list -t snapshot -r -s creation stg/serverx NAME USED AVAIL REFER MOUNTPOINT (…….) stg/serverx@20110620 2.88M – 47.1G – stg/serverx@20110621 2.89M – 47.1G – stg/serverx@20110622 2.88M – 47.1G – stg/serverx@20110623 5.44M – 46.6G – 我已经从远程服务器上的6/22快照,所以我发送它生成的stream zfs send -i stg/serverx@20110622 stg/serverx@20110623 另一端没有麻烦地收到这个信息。 但是,所产生的数据stream超过80千兆字节,几乎是整个源文件系统的两倍 。 我是否误解了由zfs list生成的“USED”列的含义? 我本来以为这个快照stream量是5.44M加上一定的开销。 […]

为什么我的ZFS写入性能变得越来越慢?

我在Solaris 11.1中有一个10磁盘RAIDZ。 它通过8G光纤连接。 我创build了一个ZVOL,使它可以与COMSTAR一起使用,并将它安装在另一台通过光纤连接的机器上。 当我使用大文件进行基准testing时,我得到〜700MB / s的读取和〜150MB / s的写入。 这是平均的。 仔细观察,读取速度是完全稳定的,但写入速度从50MB / s一直下降到400MB / s。 我知道ZVOL使用同步写入,但我应该得到这个慢的写入速度,并看到这种波动? 我觉得我应该变得更好(或至less一致)写,而不必有一个ZIL。

ZFS,NFS和Nexenta

这个消息是否对某人熟悉? zfs-clu-01a rpcmod: [ID 851375 kern.warning] WARNING: svc_cots_kdup no slots free zfs-clu-01a last message repeated 75220 times 在ZFS上使用NFS有很多麻烦。 实际上,我们不能通过NFS复制大文件(> 500mo),并且存在性能问题。 NFS client using NFSv3 over TCP **–NFS Server Configuration :** Concurrent NFSD Servers: 4096 NFSD queue length: 512 Concurrent LOCKD Servers: 4096 LOCKD queue length 512 **– System configuration** **1/ Disable ZIL** Settings -> Preferences […]

FreeNAS 9.3没有更多的空间。 但基于“du -sh”命令,实际使用的空间只有一半

今天早上,我在FreeNAS 9.3机器上发出警告,提示“空间不足” warning: The capacity for the volume 'SeanVolume' is currently at 85%, while the recommended value is below 80%. 一段时间后运行scrub命令是没有用的。 我使用SSHlogin到FreeNAS主机,并获得一些信息: [root@freenas] ~# zpool list NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT SeanVolume 21.8T 18.6T 3.16T – 38% 85% 1.00x ONLINE /mnt freenas-boot 111G 680M 110G – – 0% 1.00x ONLINE […]

ZFS永久性错误; 恢复选项

背景:小型个人服务器,电子邮件,networking,shell等,为家人和朋友。 SunOS 5.11,snv_113从2008年11月。服务器build于2009年。我相信是opensolaris或Solaris早期的访问版本。 AMD 64位处理器,4GB RAM。 Root zpool三向镜像,最初由三个笔记本电脑大小的320gb旋转磁盘组成。 三年后,每个旋转盘都一个接一个地死了, 每一个在制造商的保修下更换。 在过去的几个月里,又一个磁盘又变得愚蠢起来。 目前,我决定只是运行一个双向镜子。 在上周,出现了一个永久性的错误,列出了三个文件。 擦洗后,这些错误消失,除了一个元数据错误。 随着第二张光盘也开始出现故障,我扔了一个备用的桌面驱动器,并重新安装。 相同的校验和和元数据错误仍然存​​在。 在绝望中,我购买了几个固态硬盘(我来真的讨厌旋转磁盘)。 我已经添加了一个游泳池作为第三个,当然,在韧性,我仍然与以下几点: root-klaatu /root% zpool status -v pool: rpool state: ONLINE status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the […]

用SAS扩展器扩展JBOD

我的项目是通过增加45个驱动器的盒子来扩展24个硬盘的ZFS盒子,以后再增加另一个45个盒子的盒子(都是JBOD)。 主机盒(24个硬盘)是Supermicro的单端口扩展器背板和LSI RAID卡(我认为,MegaRAID SAS 9240-8i)。 目前底板占用卡上的一个SAS端口,打开一个端口。 我目前的理解是,在第一级,RAID卡必须通过扩展器支持我想要的驱动器数量。 所以我需要将RAID卡换成支持128个硬盘的东西。 之后,我应该能够通过菊花链扩展:主机背板扩展器 – >主机RAID卡< – 扩展1,背板1(24个HDD)< – 扩展1,背板2(21个HDD)< – 扩展2,背板1 (24个硬盘)< – 扩展2,背板2(21个硬盘) 我的RAID设置是4或5个vdevs,RAIDZ2(RAID6),4TB SAS驱动器 问题: 2或4个背板的菊花链会保持6Gb / s的速度吗? 唯一的限制是RAID卡支持的磁盘数量? 此外,据我所知,使用双扩展背板允许冗余通过菊花链连接背板通过额外的path。 这是真的,值得额外200美元吗? 我应该扔掉RAID卡,并使用HBA,因为它可以支持128个硬盘便宜,我只关心JBOD? 我用这些资料来理解: SAS扩展器 Supermicro SC847J SAS2机箱说明书 SAS扩展器是否可以透明地与SAS控制器配合使用?

Windows 10中的Samba 4.2卷影副本 – 空列表

我有一个带有Samba 4.2的Debian 8系统。 我正在使用ZFS文件系统进行数据存储。 Windows共享工作正常,除了Windows客户端无法看到任何卷影副本快照。 我的桑巴configuration是: [Test] comment = test writable = yes directory mask = 0777 guest ok = Yes path = /samba/123 create mask = 0666 read only = No vfs objects = shadow_copy2 shadow: format = auto-%Y-%m-%d_%H.%M.%S–28d shadow: sort = desc shadow: snapdir = .zfs/snapshot 我的快照列表是: zfs列表-t快照 NAME USED AVAIL REFER MOUNTPOINT […]

zfs – 热备份,replace,分离:资源很繁忙

我对zfsonlinux很新。 我刚刚成功地build立了一个全新的服务器,在ZFS上安装了Debian ROOT。 一切工作正常,但我有一个热备份和更换磁盘的问题。 这是我的游泳池: NAME STATE READ WRITE CKSUM mpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-ST1XXXXXXXXXXA-part1 ONLINE 0 0 0 ata-ST1XXXXXXXXXXB-part1 ONLINE 0 0 0 mirror-1 ONLINE 0 0 0 ata-ST1XXXXXXXXXXC-part1 ONLINE 0 0 0 ata-ST1XXXXXXXXXXD-part1 ONLINE 0 0 0 spares ata-ST1XXXXXXXXXXE-part1 AVAIL ata-ST1XXXXXXXXXXF-part1 AVAIL 现在,我可以从真正的乐趣开始。 磁盘拉! 我现在拔出磁盘C.我有一个工作池,但降解(如预期): NAME STATE […]

调整单个节点文件服务器中的Google云端平台永久磁盘(ZFS服务器)

几个月前,我在Google Cloud Launcher( https://cloud.google.com/launcher/docs/single-node-fileserver )上使用点击部署方法build立了文件服务器。 这在一个虚拟机和一个500 GB持久磁盘中创build了一个ZFS服务器。 我使用GUI更新了磁盘的大小(1 TB)。 现在我想在文件服务器上增加这个磁盘,但是我无法实现它的工作。 这是我的configuration: $ sudo lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 10G 0 disk └─sda1 8:1 0 10G 0 part / sdb 8:16 0 1000G 0 disk ├─sdb1 8:17 0 500G 0 part └─sdb9 8:25 0 8M 0 part 我试图在磁盘和第一个分区上使用resize2fs ,但是显示错误: $ […]