我正在搭build一个带有4G内存和16个SATA热插拔托架的Supermicro X6DHE-XB 3U机箱中基于FreeNAS的服务器。 它配备了2×8端口的3Ware RAID卡,但是我正在计划使用ZFSfunction而不是硬件RAID。 我的初始驱动集将是8x2TB HITACHI Deskstar 7K3000 HDS723020BLA642驱动器。 如果我使用的是基于硬件的RAID,则会在驱动器出现故障的驱动器托架上亮起红灯。 驱动器出现故障时,它如何与ZFS协同工作? 我不认为有任何担保sda = bay1,sdb = bay2等,那么如何确定哪个驱动器需要更换? ZFS能否报告给SATA控制器打开“故障驱动器”指示灯? 它只是报告驱动器序列号? 如果硬盘发生故障,不能报告序列号? 我想这是一个好主意,记下每个驱动器的序列号以及在您上线之前所在的哪个托架。 是否还有其他“预生产”任务可以在未来更轻松地更换驱动器?
我知道ZFS会更喜欢所有尺寸相同的磁盘。 但是,如果我有两个不同大小的磁盘(1TB和1.5TB),我想要有一定的冗余,但不能镜像。 所以我把两个磁盘分成5个分区,每个分区大约500GB,并创build一个“raidz”池… zfs高兴地被迫。 它设置实际上增加任何可靠性? 我们的想法是,如果磁盘没有完全被破坏,只有一部分失败,我仍然可以访问数据?
我想使用cron来安排我的ZFS池的定期擦洗,并且在擦洗结束后的相当短的时间内 ,给我自己发送状态报告。 这样做的目的是捕捉任何问题,而不必手动查找它们(推而不是拉)。 第一部分很简单:只要设置一个cron作业,以任意间隔运行zpool scrub $POOL作为根,在我的特殊情况下是合理的。 第二部分,我不太确定如何去做。 zpool scrub立即返回,然后由系统在后台运行清理(如果清理是由pipe理员从terminal启动的话,这当然是可取的行为)。 zpool status为我提供了一个状态报告并退出(退出代码为0,当擦洗正在运行时,它还没有完成,所以我不知道退出状态是否改变,但我怀疑它)。 为zpool scrublogging的唯一参数是-s “stop scrubbing”。 主要的问题是检测从洗涤到成品洗涤的状态变化。 鉴于此,其余的应该落实到位。 理想情况下,我想告诉zpool scrub直到擦洗结束才能返回,但是我看不出有什么办法可以做到这一点。 (这会让简单的cron zpool scrub –wait-until-done $POOL; zpool status $POOL简单zpool scrub –wait-until-done $POOL; zpool status $POOL 。) 如果不这样做,我想询问系统是否正在进行清理,最好以不会因升级或configuration更改而冒险的方式,以便我可以根据是否以前运行擦洗已经完成(当擦洗状态从擦洗转为不擦洗时,通过执行一个zpool状态)。 这个特殊的设置是针对一个工作站系统的,所以像Nagios这样的监控工具可能有解决问题的插件,安装这样一个工具只是为了完成这个任务,实际上是相当矫枉过正的。 有人可以build议一个较低的技术解决scheme的问题?
在生产中是否还存在使用ZFS的情况? 我运行Solaris服务器,并计划从早期版本升级到Solaris 10 10/09。 目前我们使用本地磁盘的SVM和我们的供应商的SAN卷pipe理技术。 我们正在考虑将大部分(如果不是全部)存储迁移到ZFS。 我们希望能够在快照上使用LiveUpgrade,轻松进行存储pipe理(特别是增长LUN),快速恢复等。 我们应该注意哪些“陷阱”? 我们有很多Oracle数据库。 这是一个问题吗? 你们有没有做过我们所想的负面经历?
我有一个4x 2TB的WD RE4-GP驱动器的RAID服务器(4TB可用)的NAS服务器。 我的空间不足(剩余空间less于1TB)。 我有$ 0花费更大/更多的驱动器/机箱。 我喜欢我所读到的关于ZFS的数据完整性特性,它们本身就足以让我从现有的XFS(软件)RAID10切换。 然后我读了ZFS的RAID5的高级实现,所以我想我甚至可以使用RAIDZ-1在交易中增加2TB的可用空间。 但是,我一直在阅读越来越 多的 post,说永远不要使用RAIDZ-1。 只有RAIDZ-2 +足够可靠地处理“现实世界”驱动器故障。 当然,就我而言,RAIDZ-2没有任何意义。 在单个池中使用两个镜像的vdevs会更好(RAID10)。 我疯了想要使用RAIDZ-1 4x 2TB驱动器? 我应该只使用两个镜像vdevs池(本质上是RAID10),并希望压缩给我足够的额外空间? 无论哪种方式,我打算使用压缩。 我只有8GB的内存(最大),所以重复数据删除不是一个选项。 这将在FreeNAS服务器上(即将取代当前的Ubuntu操作系统),以避免ZFS-on-Linux的稳定性问题。
我是一个小公司的人。 我想要devise一个新的基础架构,包括一个新的服务器和一个单独的备份服务器,以及公司范围的备份策 公司最重要的事情是SQL Server及其数据库。 有10个数据库,但其中只有2个是非常重要的。 第一个8GB,大部分是文本数据和数字。 第二个约16GB /月的300GB增长包含PDF和GIF。 为了节省存储当前的备份策略,每周需要一次完整备份和6次差异。 我认为它每周大约350GB,每月1.4TB。 在阅读了关于无声数据损坏的文章之后,我决定尝试使用Nexenta社区版的ZFS。 我的问题是:ZFS的重复数据删除function是否适合存储备份文件的可靠性,还是应该考虑一些磁带备份或其他function? 编辑:我知道,现在我们不能预测性能,重复数据删除率等,但我想知道这是否是一个好主意。
我一直负责通过广域网进行异地备份工作。 两个存储盒都是运行ZFS的基于FreeBSD的NAS盒子。 每周一次或两次,15-60摄影的数据被转储到办公室NAS。 我的工作是弄清楚如何使用非常慢的DSL连接(〜700Kb / s上传)尽可能可靠地获取这些数据。 接收盒的形状更好,在30Mb / s下,5Mb / s以上。 我知道,携带硬盘驱动器可以更快地移动数据,但在这种情况下,这不是一个选项。 我的select似乎是: ZFS增量通过ssh发送 Rsync的 rsync是一个时间已久的解决scheme,并具有重要的能力,如果事情被打断,恢复发送。 它具有迭代许多文件而不知道重复数据删除的缺点。 ZFS快照发送可能会传输less量的数据(它比文件系统知道更多,可以执行重复数据删除,可以比rsync更有效地打包元数据更改),并且具有正确复制文件系统状态的优点,而不是简单地复制单独的文件(这是更多的磁盘密集型)。 我担心ZFS的复制性能[1](尽pipe那篇文章已经一岁了)。 我还担心,如果出现问题,能够重新启动传输 – 快照function似乎不包括这一点。 整个系统需要完全放手。 [1] http://wikitech-static.wikimedia.org/articles/z/f/s/Zfs_replication.html 使用任一选项,我应该能够通过路由指定端口,然后使用路由器上的QOS来优先化stream量。 我需要避免在每个传输过程中对这两个站点的用户产生重大负面影响,因为这需要几天的时间。 所以…这是我在这个问题上的思考。 我错过了任何好的select? 有没有其他人设置类似的东西?
我有一个ZFS镜像池,共有四个驱动器。 其中两个驱动器旨在用于旋转异地备份。 我的期望是,在初始重新启动之后,我可以detach并随后attach一个磁盘,并且只做一个增量重新启动 – 但是在testing中,无论被连接的磁盘是否已经包含了几乎所有的池内容。 如果使用offline / online方式,只会给我更新磁盘所需的结果 – 而不是完全重build它? 或者如预期的那样进行这项工作,我需要做一些完全不同的事情 – 例如将每个备份磁盘用作单磁盘池,并在需要更新时将最新的快照send给它。
甲骨文在2010年秋季抛售了OpenSolaris ,目前还不清楚甲骨文是否会继续公开发布ZFS更新,除非可能在发布其下一个主要版本的Solaris之后。 FreeBSD现在有了ZFS v28可供testing。 但是v28从哪里来? 我注意到, 主要的ZFS网站没有显示版本28可用。 这个网站被放弃了吗? 如果是的话,那么ZFS项目的中心网站在哪里,以便我可以浏览回购,阅读邮件列表,阅读发行说明等。 (我意识到OpenSolaris已经被Oracle甩了,而且他们正在向社区限制他们的ZFS版本)。
我运行FreeNAS 8,我的电脑有一个从停电的硬重置,现在每次我尝试启动时,我得到以下错误信息: Error Message: panic: zfs_replay_acl_v0:898: unsupported condition 我使用ZFS文件系统版本4(ZFS存储池版本15)运行ZFS。有关如何解决此问题的任何想法?