在我新购买的带有70x 4TB Nearline SAS磁盘的HP MDS600上,我现在需要configuration磁盘,并且我想要raidz2,所以raid大小在2^n+2 。 我所拥有的select是 每组10个磁盘组 11个RAID组,每个+ 4个热备份 题 有没有什么时候使用热备份的通用规则,以及在特定的团队级别有多less?
我正在尝试使用不同的文件系统,以便在作为testing平台的双启动Linux / OSX笔记本电脑之间使用。 尽pipe是一个BSD变种,但是我在寻找一个兼容的文件系统方面遇到了很多麻烦,但是在OpenZFS的实现上已经解决了。 最新的OpenZFS 0.6.3-1安装在两个系统上。 我最初使用/ dev / disk0s6从OSX内部创build了一个池。 一切工作正常的OSX与驱动器挂载和可写: $ zpool status pool: Data state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM Data ONLINE 0 0 0 disk0s6 ONLINE 0 0 0 errors: No known data errors $ zpool import pool: Data id: 16636970642933363897 state: ONLINE action: The pool can […]
我在这里写,因为3个小时后,我仍然无法在我的全新服务器上安装NexentaStorCE。 硬件configuration是:Supermicro x10drl-i至强E5 2609V3 16GB DDR4金士顿 我试图从外部的USB光盘安装。 不幸的是,在启动安装程序时,在grub菜单select之后,它会停留在错误文本的墙上(我无法查看第一行) 我们如何debugging情况? 我没有任何日志,我无法向上滚动控制台输出…任何想法? 提前致谢
我一直很高兴地以脚本的方式与CentOS和ZFSonLinux一起使用zfsnap ,就像在网站上描述的一样,但遇到了问题。 不幸的是备份在几天前没有运行,现在我陷入了一个奇怪的情况。 我在我的主ZFS服务器的备份ZFS服务器上有一系列增量备份,而在主服务器上有一些较新的快照。 不幸的是,由于在主服务器上丢失了备份并自动销毁了较早的快照,两个系统之间不再需要执行增量发送。 即备份有: backuppool/x@snap2 backuppool/x@snap3 backuppool/x@snap4 在主要的zfs服务器上有: mainpool/x@snap6 mainpool/x@snap7 mainpool/x@snap8 有什么方法让他们再次同步,或者我必须销毁备份上的所有内容,并执行完整(没有足够的空间进行两次完整备份)? 我试过在主服务器上指定一个引用远程备份服务器上的snap4名称的发送,但由于主服务器没有snap4,所以无法计算增量。 我也尝试将snap4从备份发送到主服务器,但似乎唯一的办法就是把它做成完整的发送(没有足够的空间),我需要清除现有的快照。 如果您的快照不匹配,删除所有的备份历史logging似乎非常不方便,在这种情况下是否有解决scheme?
我的FreeBSD 10.2服务器上的一个目录无意中被破坏了(ZFS是不是应该阻止它?) ls或者任何其他的命令都会导致当前会话在内核级别被冻结(甚至SIGKILL什么也不做)。 ZFS擦洗没有问题。 # zpool status zroot pool: zroot state: ONLINE scan: scrub repaired 0 in 0h17m with 0 errors on Sun Dec 18 18:25:04 2016 config: NAME STATE READ WRITE CKSUM zroot ONLINE 0 0 0 gpt/zfs0 ONLINE 0 0 0 errors: No known data errors smartctl说磁盘一切正常。 SMART Attributes Data Structure revision number: […]
在一个小型服务器系统中,我有一个zfs文件系统,带有一对镜像消费级驱动器(希捷Barracudas)。 最近,在定期擦洗操作中,给出了以下结果: pool: storage state: ONLINE status: One or more devices has experienced an unrecoverable error. An attempt was made to correct the error. Applications are unaffected. action: Determine if the device needs to be replaced, and clear the errors using 'zpool clear' or replace the device with 'zpool replace'. see: http://zfsonlinux.org/msg/ZFS-8000-9P scan: scrub repaired […]
我对ZFS有点新,但是我正在创build一个带有12个物理驱动器的新存储池。 我目前的计划是在10个驱动器和两个热备件上安装RAIDZ2。 但是我想知道,在所有12个驱动器和没有热备份的情况下,使用RAIDZ3是否会更好。 理由是热备件基本上是通电的,空闲的驱动器。 可能要几个月或几年才能投入使用,那时我可能会发现它们不可行。 如果它们是RAID条带的一部分,我至less可以得到有关它们是否好的反馈。 在networking上我没有看到太多的讨论。 有没有人有build议?
我有一个zfs文件系统(nexenta核心)的服务器,我用zfs共享share_nfs共享文件over nfs。 当我在我的客户端(Ubuntu工作站)上安装文件系统时,我无法获得原始的UID / GID 🙁 我使用以下选项安装我的客户端:192.168.1.4:/home/media/testnfs nfs rw,dev,noexec,nosuid,auto,nouser,noatime,rsize = 8192,wsize = 8192 0 0 如果我configurationidmapd我没有nobody:nogroup和没有idmapd我有4294967294:4294967294,我怎么能得到原始的ID? 这是nfs服务器还是客户端的问题? 感谢您的回答。
我有一个运行NexentaStor Enterprise的x4540 Sun存储服务器 。 它为几台VMWare vSphere主机提供NFS over 10GbE CX4。 有30个虚拟机正在运行。 在过去的几个星期里,我发生了10-14天的随机碰撞。 这个系统用来打开OpenSolaris,并且在这个安排中是稳定的。 崩溃触发硬件上的自动系统恢复function,迫使系统重置。 这是mdbdebugging器的输出 : panic[cpu5]/thread=ffffff003fefbc60: Deadlock: cycle in blocking chain ffffff003fefb570 genunix:turnstile_block+795 () ffffff003fefb5d0 unix:mutex_vector_enter+261 () ffffff003fefb630 zfs:dbuf_find+5d () ffffff003fefb6c0 zfs:dbuf_hold_impl+59 () ffffff003fefb700 zfs:dbuf_hold+2e () ffffff003fefb780 zfs:dmu_buf_hold+8e () ffffff003fefb820 zfs:zap_lockdir+6d () ffffff003fefb8b0 zfs:zap_update+5b () ffffff003fefb930 zfs:zap_increment+9b () ffffff003fefb9b0 zfs:zap_increment_int+68 () ffffff003fefba10 zfs:do_userquota_update+8a () ffffff003fefba70 […]
我使用以下规格运行Nexentastor服务器: 双核(core2duo)CPU 4GB的ram 1x 160GB的SATA2驱动器的OS 6x 1.5TB的驱动器在RaidZ1驱动器Sata2 复制文件很好,速度还算不错,我通常可以最大千兆这么没有怨言。 但是,当涉及到操纵文件,特别是删除文件时,它是非常痛苦的。 例如,删除一个包含大约30个文件的705MB文件夹需要2分30秒(使用time命令) 我可以同时运行任何命令来缩小这个范围? 谢谢。