有谁知道validation在LVM和md RAID上的XFS文件系统在4096字节(又名“高级格式”扇形磁盘arrays上正确alignment的步骤吗? 一些参考是: http://www.ibm.com/developerworks/linux/library/l-4kb-sector-disks/index.html http://thunk.org/tytso/blog/2009/02/20/aligning-filesystems-to-an-ssds-erase-block-size/ 此外,这个问题的上下文是关于堆栈溢出的新的NAS: http : //blog.serverfault.com/post/798854017/the-theoretical-and-real-performance-of-raid-10
让我首先承认我犯了错误,并且对这个RAID上的大部分数据都有一个备份。 我仍然希望恢复其余的数据。 我没有那种把钱带到恢复专家公司的钱。 错误#0,没有100%的备份。 我知道。 我有一个4x3TB的mdadm RAID5系统。 驱动器/ dev / sd [be],全部使用一个分区/dev/sd[be]1 。 我意识到非常大的驱动器上的RAID5是有风险的,但我仍然做到了。 最近发生的事件 双驱动器故障后,RAID会降级。 一个驱动器[/ dev / sdc]确实没有了,另外一个[/ dev / sde]在重新上电后恢复,但不会自动重新添加到RAID中。 所以我剩下的只有2个活动驱动器[/ dev / sdb和/ dev / sdd]的4个设备RAID。 错误#1,不使用驱动器的dd副本来恢复RAID。 我没有驱动器或时间。 错误#2,没有备份其他驱动器的超级块和mdadm -E 。 恢复尝试 我重新组装了降级模式下的RAID mdadm –assemble –force /dev/md0, using /dev/sd[bde]1. 我可以访问我的数据。 我用备件replace了/dev/sdc ; 空; 相同的驱动。 我从RAID中删除了旧的/dev/sdc1 mdadm –fail /dev/md0 /dev/sdc1 错误#3, 在更换驱动器之前不要这样做 […]
mdadm似乎不支持从1级到10级的数组增长。 我在RAID 1中有两个磁盘。我想添加两个新磁盘,并将arrays转换为四个磁盘RAID 10arrays。 我目前的战略: 做好备份。 创build具有两个丢失磁盘的降级4磁盘RAID 10arrays。 rsync the RAID 1 array with the RAID 10 array. 失败并从RAID 1arrays中删除一个磁盘。 将可用磁盘添加到RAID 10arrays并等待重新同步完成。 销毁RAID 1arrays并将最后一个磁盘添加到RAID 10arrays。 问题是在步骤5缺乏冗余。 有没有更好的办法?
伙计们请帮忙 – 我是一个手头有头痛的新手(完美的风暴情况)。 我在我的Ubuntu 11.04上configuration了3个1tb硬盘,configuration为软件RAID5。每周将数据复制到另一台计算机硬盘上,直到完全失败并被丢弃。 几天前,我们停电,重新启动后,我的箱子不会进行突袭。 以我无限的智慧进入 mdadm –create -f… 命令而不是 mdadm –assemble 并没有注意到我以前做过的嘲弄。 它开始退化arrays,并进行build模和同步,花费了大约10个小时。 我回来后,我看到arrays成功运行,但突袭没有 我的意思是单个驱动器分区(分区typesf8 ),但md0设备不是。 在恐怖中实现我所做的一切,我试图find一些解决scheme。 我只是祈祷–create没有覆盖硬盘的全部内容。 有人可以帮我解决这个问题 – 驱动器上的数据是非常重要和独特的 – 10年的照片,文档等 是否有可能通过以错误的顺序指定参与的硬盘驱动器可以使mdadm覆盖它们? 当我这样做 mdadm –examine –scan 我得到了像ARRAY /dev/md/0 metadata=1.2 UUID=f1b4084a:720b5712:6d03b9e9:43afe51b name=<hostname>:0 有趣的是,以前的名字是'raid',而不是主持人hame:0。 这是'sanitized'configuration项: DEVICE /dev/sdf1 /dev/sde1 /dev/sdd1 CREATE owner=root group=disk mode=0660 auto=yes HOMEHOST <system> MAILADDR root ARRAY /dev/md0 metadata=1.2 name=tanserv:0 UUID=f1b4084a:720b5712:6d03b9e9:43afe51b […]
我想中断在debian挤压软件突袭运行resync操作。 (这是常规的比较重新同步,在这种情况下raid数组仍旧是干净的,不要把这个和一个磁盘失败并重build后的重build相混淆。 如何在运行时停止计划的重新同步操作? 另一个raidarrays是“resync pending”,因为他们都在同一天(星期日晚上)被一个接一个的检查。 我想要一个完整的停止这个星期天晚上的同步。 [编辑: sudo kill -9 1010不会停止它,1010是md2_resync进程的PID] 我也想知道如何控制resyncs和剩余时间之间的时间间隔,直到下一个时间。 [编辑2:我现在所做的是使resync变得非常慢,所以它不再打扰: sudo sysctl -w dev.raid.speed_limit_max=1000 取自http://www.cyberciti.biz/tips/linux-raid-increase-resync-rebuild-speed.html 在晚上,我会把它设置回一个高的值,所以重新同步可以终止。 这种解决方法对于大多数情况都是好的,但是知道我问的是否可能是有趣的。 例如,它似乎没有可能增长一个数组,而它正在resyncing或resyncing“挂起”]