Mdadm raid1说最后一个驱动器连接失败

我有一个软件raid1arrays。 今天我发现其中一个驱动器无法同步,我得到这个:

$ cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb1[0] sda1[2](F) 153597312 blocks [2/1] [U_] 

所以我做了:

  mdadm --manage /dev/md0 --remove /dev/sda1 mdadm --manage /dev/md0 --add /dev/sda1 

这些设备约25%的方式AFAIK,然后我结束了mdadm镇定的驱动器是好的,现在失败了:

 # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sda1[1] sdb1[2](F) 153597312 blocks [2/1] [_U] 

我现在害怕重新连接并导致数据丢失。

  1. 到底是怎么回事?
  2. 有没有办法testing数组的数据是好的?
  3. 我现在应该怎么做?

哥们,谢啦

在这种情况下,我要做的是先在两个(或三个)新磁盘上创build一个新的RAID-1,以便在恢复过程中使用。 您现有的RAID只有150GB左右,而1TB磁盘并不贵,所以在恢复过程中,一个来自两个1TB磁盘的全新RAID-1将非常有用。

一旦准备就绪,从每个故障磁盘中尽可能多地恢复到新的RAID-1上的文件。 这是恢复过程中最关键的阶段。 在这个阶段完成之前的任何错误都可能使你的问题比现在更糟糕。

从你所经历的行为来看,很可能这两个磁盘都没有完全失败,但是每个磁盘都有不可读的扇区。

幸运的是,您可以从两个驱动器中的至less一个获取每个扇区的副本。 一旦你经历了这个阶段,你就可以将有问题的驱动器放在一旁,并且在新驱动器上处理恢复的数据,而几乎没有使情况变得更糟的风险。

这两个驱动器上的数据可能有点不同步。 由于恢复尝试失败,您不能完全确定哪一个是最新的。 即使你知道,你可能会看到一些最新的版本丢失的部分,你将被迫使用较新的版本。

这让你有一个难题,找出可以恢复的东西。 但是,如果你知道自己在做什么,恢复过程的这一部分并不是很有风险。