今天早些时候,我收到了一个来自mdadm monitor的自动电子邮件,内容如下: This is an automatically generated mail message from mdadm running on server This is an automatically generated mail message from mdadm running on server A Fail event had been detected on md device /dev/md127. It could be related to component device /dev/sdd1. Faithfully yours, etc. PS The /proc/mdstat file currently contains the following: […]
我有一个embedded式盒子作为我的NAS。 它正在运行Debian(是的,我知道FreeNAS和openFiler)。 我有一对1TB的硬盘做RAID1。 mdadm对我来说很好,但家里的其他人不太懂技术。 我想至less有一种很好的状态网页界面,理想的pipe理员可以重build一个失败的驱动器。 任何人都知道这样的事情?
我有一个由mdadmpipe理的三个磁盘RAID5arrays,上面有一个XFS文件系统。 当我使用机器的时候,我注意到机器突然变得没有反应(新的程序不会启动等等),但是对于我来说打开一个新的xterm并运行dmesg还是足够了。 内核日志显示了大量的SATA链接超时。 重启计算机时,BIOS没有报告两个驱动器(arrays中的一个驱动器以及一个DVD驱动器)。 问题原来是DVD驱动器(我一直有问题),并断开它再次看到硬盘驱动器。 用smartctl问题的磁盘( /dev/sdc )似乎没问题,所以我不认为这是磁盘故障。 问题是我无法弄清楚如何重新激活我的数组。 使用mdadm –examine来mdadm –examine分区/dev/sda3和/dev/sdb3 (那些没有失败的mdadm –examine显示他们当然认为/dev/sdc3是坏的/被删除的,而/dev/sdc3认为那很好。 更糟糕的是,arrays正在积极写入,所以事件计数是不同的,sda3和sdb3具有较高的值。 (我完全愿意扔掉新写的数据,但我认为这不相关)。 什么是恢复行动的最佳途径? 运行mdadm -A /dev/md2不执行任何操作,而mdadm –auto-detect不检测数组。 $ sudo mdadm –query /dev/md2 /dev/md2: is an md device which is not active $ sudo mdadm –query /dev/sda3 /dev/sda3: device 0 in 3 device undetected raid5 /dev/md2. Use mdadm –examine for more detail. […]
我有4个磁盘RAID-5ed创buildmd0,另外4个磁盘RAID-5ed创buildmd1。 然后这些通过LVM组合来创build一个分区。 在我离开的时候发生了停电事故,当我回来的时候,看起来好像md1中的一个磁盘不同步 – mdadm一直声称只能find4个驱动器中的3个。 我唯一能做的就是在这四个磁盘上使用mdadm –create ,然后让它重build数组。 这对我来说似乎是一个不好的主意,但我所拥有的所有东西都是非常重要的(尽pipe这需要一段时间才能完全恢复),某个地方的某个主题声称这样可以解决问题。 如果这个数据全部丢失了,那么我想你可以停止阅读,只是告诉我。 等待了四个小时的arrays重build,md1看起来很好(我猜),但是lvm抱怨无法find具有正确UUID的设备,大概是因为md1更改了UUID。 我使用了这里logging的pvcreate和vgcfgrestore命令。 试图运行一个lvchange -ay它,但是,给了我一个resume ioctl failed消息。 我有什么希望恢复我的数据,或者我已经完全搞砸了吗? 我的LV线性设置。 似乎我应该能够通过使用类似于TestDisk的至less恢复从md0的数据。 但是, 示例显示了TestDisk中列出的LVM分区,而我只能看到sda,sdb等。 和md0和md1。 [$]> lvdisplay — Logical volume — LV Name /dev/VolGroup/lvm VG Name VolGroup LV UUID b1h1VL-f11t-TGJv-ajbx-4Axn-wi89-fReUKu LV Write Access read/write LV Status suspended # open 0 LV Size 6.14 TiB Current LE 1609648 Segments […]
我的服务器戴尔R210运行Debian挤压硬件RAID1(H200)预先configuration。 但是我注意到有mdadm在运行。 有时在备份或操作系统升级(到Debian 6.0.4),我有这样的消息: W: mdadm: /etc/mdadm/mdadm.conf defines no arrays. W: mdadm: no arrays defined in configuration file. 他们安全地忽略? 我如何禁用mdadm? 只是一个/etc/init.d/mdadm stop ,有点观察然后apt-get remove mdadm ?
我上周设置了一个新的服务器,在mdadm raid5上做了一些不同的mkfs.xfs选项的testing,终于find了一些mkfs选项。 现在我要创build一个具有完全相同磁盘设置的新服务器 不幸的是,我没有写下我上次使用的mkfs.xfs选项,所以这是我的问题: 有没有办法从正在运行的(当前已安装的)xfs文件系统中获取mkfs.xfs选项?
我有一个使用软件raid(md)的4个磁盘RAID 5的64位Ubuntu机器。 我已经能够启动一个Ubuntu LiveCD,并用一个简单的mdadm -A /dev/md0识别这个数组。 之后很容易安装,没有什么必须重build。 我现在在这个盒子上安装Gentoo(多启动,非RAID根分区),我在内核中启用了md自动检测function。 当我启动Gentoo时,我得到:arrays中每个驱动器上的“sdd上无效的超级块魔法”。 我启动到Ubuntu,他们没有问题。 我尝试将在Ubuntu中工作的mdadm.conf复制到Gentoo,然后运行mdadm -A /dev/md0但是它报告没有名为md0的数组。 我不想丢失数据(显然),我不希望每次切换操作系统时都要重buildRAID。 任何帮助表示赞赏。 两者都使用mdadm 3.1.4 两者都运行64位内核。 Ubuntu的mdadm -D /dev/md0产生: http : //pastebin.com/5gj2QNkV 更新:重新启动后,我注意到它仍然抱怨无效的块,但cat /proc/mdstat显示与我的RAID相同的磁盘非活动/dev/md127 。 我想挂载它,但是我不想被卡在等待重build或无意中销毁它。 mdadm -D /dev/md127这里是gentoo上的mdadm -D /dev/md127 : http : mdadm -D /dev/md127 更新II: 关于“无效突袭超级块”的dmesg输出http://paste.ubuntu.com/885471/ 从Ubuntu的fdisk -l ,/ dev / md0没有任何分区,但是我确实已经安装并访问: http : //paste.ubuntu.com/885475/
最近我在RAIDarrays中失去了一个驱动器(从系统收到一封电子邮件,告诉我这是非常好的),经过一些驱动器的洗牌和换入新驱动器,我都安全可靠。 但一路上,我发现这个线程 ,这让我想到如何实际testing磁盘错误和其他坏事情,而没有他们真正发生。 当我运行build议的tar命令时: tar c /my/raid/device/mount/point > /dev/null 它在几秒钟内完成,这显然不足以让系统实际读取所有文件(远远超过TiB) – 所以我想我的第一个问题是为什么这可能不起作用。 如果我做这样的事情: find . -type f | xargs md5sum 该命令运行得很好,需要很长时间才能完成…但是它也会加载CPU进行所有的求和。 这可能也可能不是比“焦油”更快或更容易 – 我更加好奇,为什么tar命令没有按预期工作。 无论如何 – 第二个问题,更一般地说:是否有办法按照这些方法做一些事情来进行故障注入testing: find(或创build)我不关心的文件… 确定磁盘上的块是用来存储这个特定的文件… 假的软件/操作系统认为这个块是“坏”(我认为标记它不知何故,这是我的知识用完的地方) 运行我的testing脚本和/或错误检查例程 确认数组都报告错误,并执行任何其他纠正措施是必要的… 将该块/扇区再次标记为“好”,以便系统/操作系统正常使用它。 这似乎是可行的,但我没有足够的Linux工具的详细知识,这将允许我标记一个块在设备级别不好,实际上是一个坏块… 这个想法? 或者,如果有更好的方法来解决这个问题,我很高兴听到这个…
TL; DR如何从损坏的RAID1分区恢复ext4文件系统? 我的情况 我在Synology DiskStation上有一个属于RAID1arrays的故障磁盘,另一个则丢失。 使用ddrescue我已经将大部分相关数据复制到一个新的磁盘。 分区表依然存在,但是RAID设置必不可less的一些块已损坏。 # fdisk -l /dev/sdd Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes 255 heads, 63 sectors/track, 364801 cylinders, total 5860533168 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disk identifier: 0x0003f44a […]
我目前有2个500 GB HD的RAID级别1。 RAID由服务器1pipe理,驱动器位于两台不同的服务器上。 一旦我设置了RAID,RAID就会很好用,但是随机的时候,连接似乎会丢失,而mdadm会将其标记为错误,即使我使用带有-persist选项的nbd-client; mdadm拒绝看到这个驱动器。 将此断开连接重新引入RAIDarrays的唯一方法是: mdadm -r / dev / md0 / dev / nbd1 mdadm -a / dev / md0 / dev / nbd1 我的问题是,它导致在networking上500GB的完全RESYNC。 我对这个问题有两个问题: 有没有办法告诉mdadm不要完成一个完整的重新同步,因为它在断开连接之前完成一个重新同步,所以我看不到一个完全重新同步的好理由? 我会更好的rsync,因为我需要的只是我写/删除任何数据的备份副本? 我build议这样做,因为据说rsync只能传输delta(或更改)的数据,而不是mdadm似乎在做的事情。