我在这里一直在殴打我的头,我现在转向互联网寻求帮助。
我有一个运行Mandrake Linux的系统,具有以下configuration:
/dev/hda
– 这是一个IDE驱动器。 有一些分区,它启动系统,并构成大部分的文件系统。 /dev/sda
– 对于软件raid /dev/md0
这是2的驱动器1 /dev/sdb
– 对于软件raid /dev/md0
这是2的驱动器2 md0
被挂载,而fstab
作为/data-storage
,所以对于系统引导的能力并不重要。 我们可以从fstab
,系统工作得很好。
问题是,我们有一个失败的sdb
驱动器。 所以我closures了这个盒子,并拉出了故障磁盘并安装了一个新的磁盘。
系统启动时, /proc/mdstat
只显示sda
作为raid的一部分。 然后我运行各种命令重buildRAID到/dev/sdb
。 一切正常重build,完成后,你看/proc/mdstat
,它显示2个驱动器sda1(0)
和sdb1(1)
。 一切看起来不错。
然后你重新启动盒子… UGH!
重新启动后, sdb
再次从RAID中丢失。 这就像重build从未发生过。 我可以通过命令重新构build它,它会工作,但再次,重新启动后,框似乎使sdb
只是消失!
真正奇怪的是,如果重新启动后,我把SDA从盒子里拿出来,然后试着让系统加载系统中重build的sdb驱动器,当我这样做的时候,系统实际上抛出了错误,在grub之后,并说驱动器错误的一些事情,系统不得不closures。
思考??? 我开始怀疑grub是否与这个混乱有关。 驱动器没有在grub中设置为在启动时可见? 这个RAIDarrays不是系统启动所必需的,但是当更换驱动器在那里,没有SDA时,它不会启动系统,所以这让我相信有一些东西。 最重要的是,在这里似乎有些不可思议的东西在重新启动后从RAID中脱落。
我已经在键盘上敲了敲头。 任何帮助将不胜感激!!!
现在可能已经太晚了,但是在添加新驱动器后,是否更新了mdadm.conf文件? 如果你换了一个磁盘,你的磁盘arrays就不会有相同的uuid了,在重新启动的时候,它会寻找旧的磁盘,不知道新的磁盘是在这里。
以下是为mdadm.conf生成行的命令:
mdadm --detail --scan
关于启动问题,您的计算机必须使用sda的grub来启动hda,您必须在bios中更改它,并确保grda安装在hda上。
在HowToForge上试试下面的很棒的教程。 您可能错过了一个或多个mdadm
命令,请参阅: http : //www.howtoforge.com/replacing_hard_disks_in_a_raid1_array