Linux软件RAID1重build完成,但是在重启之后,它又降级了

我在这里一直在殴打我的头,我现在转向互联网寻求帮助。

我有一个运行Mandrake Linux的系统,具有以下configuration:

  • /dev/hda – 这是一个IDE驱动器。 有一些分区,它启动系统,并构成大部分的文件系统。
  • /dev/sda – 对于软件raid /dev/md0这是2的驱动器1
  • /dev/sdb – 对于软件raid /dev/md0这是2的驱动器2

md0被挂载,而fstab作为/data-storage ,所以对于系统引导的能力并不重要。 我们可以从fstab ,系统工作得很好。

问题是,我们有一个失败的sdb驱动器。 所以我closures了这个盒子,并拉出了故障磁盘并安装了一个新的磁盘。

系统启动时, /proc/mdstat只显示sda作为raid的一部分。 然后我运行各种命令重buildRAID/dev/sdb 。 一切正常重build,完成后,你看/proc/mdstat ,它显示2个驱动器sda1(0)sdb1(1) 。 一切看起来不错。

然后你重新启动盒子… UGH!

重新启动后, sdb再次从RAID中丢失。 这就像重build从未发生过。 我可以通过命令重新构build它,它会工作,但再次,重新启动后,框似乎使sdb只是消失!

真正奇怪的是,如果重新启动后,我把SDA从盒子里拿出来,然后试着让系统加载系统中重build的sdb驱动器,当我这样做的时候,系统实际上抛出了错误,在grub之后,并说驱动器错误的一些事情,系统不得不closures。

思考??? 我开始怀疑grub是否与这个混乱有关。 驱动器没有在grub中设置为在启动时可见? 这个RAIDarrays不是系统启动所必需的,但是当更换驱动器在那里,没有SDA时,它不会启动系统,所以这让我相信有一些东西。 最重要的是,在这里似乎有些不可思议的东西在重新启动后从RAID中脱落。

我已经在键盘上敲了敲头。 任何帮助将不胜感激!!!

现在可能已经太晚了,但是在添加新驱动器后,是否更新了mdadm.conf文件? 如果你换了一个磁盘,你的磁盘arrays就不会有相同的uuid了,在重新启动的时候,它会寻找旧的磁盘,不知道新的磁盘是在这里。

以下是为mdadm.conf生成行的命令:

 mdadm --detail --scan 

关于启动问题,您的计算机必须使用sda的grub来启动hda,您必须在bios中更改它,并确保grda安装在hda上。

在HowToForge上试试下面的很棒的教程。 您可能错过了一个或多个mdadm命令,请参阅: http : //www.howtoforge.com/replacing_hard_disks_in_a_raid1_array