Articles of ZFS

如果强制ZFS分离没有有效副本的热备份,会发生什么情况?

我有一个由6个RAIDZ构成的ZFS池。 其中一个RAIDZ会降级,原因是单个RAIDZ中的两个磁盘相距足够近,导致ZFS在第二个磁盘发生故障之前无法从第一个故障中恢复。 以下是重启后不久“zpool status”的输出: pool: pod2 state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://www.sun.com/msg/ZFS-8000-8A scrub: resilver in progress for 0h6m, 0.05% done, 237h17m to go config: NAME […]

任何人都有使用Nexenta的经验?

我正在评估Nexenta平台,希望有一天能够replace我们的传统文件服务器。 我主要将它用作Active Directory环境中的CIFS服务器。 任何人都有使用它的经验吗? 好? 坏? 你和哪家硬件厂商合作? 为什么? 你build立了自己的(超微)还是预build?

自升级到Solaris 11以来,尽pipe拥有30GB内存,但我的ARC大小始终为119MB。 什么? 为什么?

在Solaris 11发布之前,我在Solaris 11 Express上运行了NAS / SAN盒。 盒子是一个带有D2700的HP X1600。 在所有的12x 1TB 7200 SATA磁盘中,12x 300GB 10k SAS磁盘在不同的zpools中。 总RAM是30GB。 提供的服务是CIFS,NFS和iSCSI。 一切都很好,我有一个ZFS内存使用情况图如下所示: 一个相当健康的弧大小约23GB – 利用可用内存进行caching。 不过,当我出现时,我升级到了Solaris 11。 现在,我的graphics如下所示: arc_summary.pl部分输出是: System Memory: Physical RAM: 30701 MB Free Memory : 26719 MB LotsFree: 479 MB ZFS Tunables (/etc/system): ARC Size: Current Size: 915 MB (arcsize) Target Size (Adaptive): 119 MB (c) […]

清除健康池中的永久ZFS错误

我今天擦洗了我的泳池,擦洗完毕后,我注意到有一个错误,损坏了一个文件。 我不在乎这个文件,所以我把它删除了。 不幸的是,错误仍然存​​在(现在引用hexID而不是文件名),我不知道如何清除它。 我应该担心吗? 我是不是真的没有这个错误没有? 我可以清除错误吗? 如果这个文件没有了,我不会在将来看到这个错误。 作为参考,这里是我发出的命令和输出,带注释: 检查状态 kevin @ atlas:〜$ sudo zpool status -v 池:zstorage状态:ONLINE状态:一个或多个设备遇到导致数据损坏的错误。 应用程序可能受影响。 操作:如果可能,还原有问题的文件。 否则从备份恢复整个池。 请参阅:zfsonlinux.org/msg/ZFS-8000-8A扫描:磨砂在7小时19分钟修复1.81M,1月23日星期三10:04:44 config: NAME STATE READ WRITE CKSUM zstorage ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 ata-WDC_WD30EZRX-00DC0B0_WD-WCC1T1735698 ONLINE 0 0 0 ata-WDC_WD30EZRX-00DC0B0_WD-WMC1T0506289 ONLINE 0 0 0 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ2711600 ONLINE 0 0 0 错误:在以下文件中检测到永久性错误: /zstorage/owncloud/kevin/files/Archives/Music/Kev Rev […]

我应该使用整个磁盘或分区创buildZFS磁盘吗?

我正在FreeBSD机器上制作zpools。 在创buildzpools时,我观察到这两种情况: 如果我把raw disks和创buildzpool那么我能够形成zpools,他们正在完美的工作。 如果我使用freebsd-zfs格式的gpart格式化磁盘,然后制作zpool,那么它们也是完美的。 我感到困惑的是哪种方法更适合创buildzpools?

ZFS条纹在硬件RAID 6之上。什么可能出错?

我有36 * 4TB的HDD SAN机架。 RAID控制器在一个RAID组中不支持RAID60和不多于16个HDD。 所以我决定做2个16HDD的RAID6组或8个HDD的4个。 我想把所有的存储作为一个分区。 那么,如果我将在硬件RAID6之上使用zfs池,可能​​会出现什么问题呢? 是的,我知道强烈build议使用本地硬盘或直通模式。 但是我没有这个select。 或者我应该远离ZFS和软件袭击在这种情况下? (我主要对压缩和快照感兴趣)

你怎么能findzfs克隆的父快照?

我做了一个有很多快照的zfs文件系统的克隆。 我也有几个复制的文件系统的副本。 我怎样才能find克隆附加到哪个文件系统/快照? (看起来像是应该在文档/ googlable中的东西,但我还没有find任何东西)

什么是1GB以太网iSCSI和NFS的“好”速度?

我有一个OpenSolaris框共享两个ZFS文件系统。 一个是与运行VMware服务器的CentOS盒的NFS连接(磁盘映像存储在ZFS中)。 另一个是通过ZFS上的NTFS格式化与Windows 2008服务器的iSCSI连接。 这两个连接直接通过gig-E(无开关)。 我正在运行munin来监视这些框,但是我不确定我应该期待什么样的数字。 任何人都可以给我一些基准数字来比较或提出build议,从哪里开始调整? 下面是我看到的NFS统计信息,一旦我在solaris上修复了munin,我就会发布iSCSI:P

Illumos上的KVM(OpenIndiana vs. SmartOS)

我正在考虑将多个guest虚拟机虚拟化到运行KVM的最新端口到Illumos的单个服务器上。 这听起来像我的两个主要select将是OpenIndiana和SmartOS。 我将最终使用的分配需要满足以下要求: 需要能够通过CLI进行pipe理和定制(例如,更改ZFS文件系统/ zvol选项,连接外部驱动器并将数据复制到它,或使用zfs发送/接收自动将数据复制到离线服务器)。 需要实现自动化的ZFS快照(例如使用zfs-auto-snapshot)。 如果服务器的运行状况降级,则需要能够设置自动电子邮件通知。 本质上,设置定期ZFS清理,监视zpool,故障pipe理器和/或SMART问题,以及在检测到问题时发送电子邮件等。只要操作系统允许,手动设置即可。 应该以稳定和合理的性能处理Debian,Ubuntu和Windows 2008 Server R2来宾。 这些客人将用于生产。 应该有一个合理的期望,未来的版本将继续交付 – 我不想被卡住使用死胡同的产品。 如果易于安装并具有某种graphics用户界面,那将会很好,但这是可选的。 根据这些要求,你会推荐哪种分配? 您可以假定在即将发布的OpenIndiana稳定版本发布之前,不会部署此环境。 另外,您可以假设服务器将使用Sandy Bridge Xeon E3-1xxx CPU,因此应该考虑到KVM兼容性。 另外,在这些发行版上,Illumos的KVM端口的稳定性/稳定性如何? 我现在还应该考虑KVM / Illumos的生产环境吗?

不同驱动器大小的ZFS池

我计划使用两个2 TB驱动器和两个1 TB驱动器来build立一个FreeNAS ZFS池。 我想以某种方式有数据冗余。 我看了这篇文章似乎build议我的两个select是使用RAIDZ丢失1TB每2TB的驱动器或使用这个命令(这是数据冗余所需空间的两倍): zfs set copies=2 poolname 有没有更好的方法来处理这个问题,而且更像是Drobo的超越RAID或者Netgear的XRAID? 或者,我可以将每个2tb驱动器分成1个分区,并将两个分区放在池中?