我是新来的raid,并且在一个月前用两个SATA磁盘build立了一个软件RAID1。 我没有检查状态,但通过拔下其中一个驱动器并validation系统正常工作进行testing。
今天,我在terminal上看到一个关于raid失败的邮件。
主题:/ dev / md / 1上的DegradedArray事件:ws
看着/ var / mail,我从几个月前就看到了类似的消息,这是我从来没有注意到的。 驱动器是相当新的,我期望在我的configuration中的问题。 我在某个地方看到,下面的状态下面的下划线表示移除的驱动器,但是单个arrays的状态没有显示任何失败的状态。
什么可能导致这个?
cat /proc/mdstat Personalities : [raid1] md1 : active raid1 sda6[0] 471572344 blocks super 1.2 [2/1] [U_] md0 : active raid1 sda1[0] 975860 blocks super 1.2 [2/1] [U_] unused devices: <none>
mdadm -D /dev/md0 /dev/md0: Version : 1.2 Creation Time : Mon Mar 14 21:14:03 2011 Raid Level : raid1 Array Size : 975860 (953.15 MiB 999.28 MB) Used Dev Size : 975860 (953.15 MiB 999.28 MB) Raid Devices : 2 Total Devices : 1 Persistence : Superblock is persistent Update Time : Wed Apr 6 05:21:36 2011 State : clean, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 Name : ws:0 (local to host ws) UUID : c6d0fb74:948f791d:7dbebe82:9c11f022 Events : 314 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 0 0 1 removed
mdadm -D /dev/md1 /dev/md1: Version : 1.2 Creation Time : Mon Mar 14 21:14:35 2011 Raid Level : raid1 Array Size : 471572344 (449.73 GiB 482.89 GB) Used Dev Size : 471572344 (449.73 GiB 482.89 GB) Raid Devices : 2 Total Devices : 1 Persistence : Superblock is persistent Update Time : Wed Apr 6 05:51:59 2011 State : clean, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 Name : ws:1 (local to host ws) UUID : 3df658dc:0f252703:065ec271:3492458b Events : 188462 Number Major Minor RaidDevice State 0 8 6 0 active sync /dev/sda6 1 0 0 1 removed
您是否可能忘记在重新插入时将驱动器重新添加到arrays中?
http://www.howtoforge.com/replacing_hard_disks_in_a_raid1_array有关于此的更多信息/教程。
将来,当您“testing”一个RAIDarrays(硬件或软件)时,仅仅是一个驱动器故障是不够的:您必须validationarrays是否重build并从错误/退化状态中退出以进行完整的testing(有些人甚至会说你必须走额外的步骤,并失败/重build另一个磁盘)。