昨天晚上,我收到了一封来自mdadm的关于我arrays中两个驱动器可能发生故障的电子邮件。 RAIDarrays被设置为4个2TB驱动器raid5和一个热备份。 这个系统真的炸了吗? 热腾腾的东西有没有拿起,或两个驱动器一次失败? 有一个驱动器出现故障,开始重build到备用状态,然后导致另一个驱动器故障? 我对于raid的工作还很陌生,而且这个系统是我从以前的员工那里inheritance下来的,所以我不确定这里的正确的故障排除步骤。 任何帮助将非常感激。
cat / proc / mdstat的输出:
sudo cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] md0 : active raid5 sdc[4](F) sdd[5](F) sda[6](S) sdb[0] sde[3] 5860543488 blocks level 5, 64k chunk, algorithm 2 [4/2] [U__U]
mdadm的输出–detail:
#sudo mdadm --detail /dev/md0 /dev/md0: Version : 0.90 Creation Time : Mon Jun 21 13:54:13 2010 Raid Level : raid5 Array Size : 5860543488 (5589.05 GiB 6001.20 GB) Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB) Raid Devices : 4 Total Devices : 5 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Mon Apr 29 10:52:27 2013 State : clean, FAILED Active Devices : 2 Working Devices : 3 Failed Devices : 2 Spare Devices : 1 Layout : left-symmetric Chunk Size : 64K UUID : 2874db80:a0f02d66:999df3c7:ff8f8e6e (local to host bigkahuna) Events : 0.10984 Number Major Minor RaidDevice State 0 8 16 0 active sync /dev/sdb 1 0 0 1 removed 2 0 0 2 removed 3 8 64 3 active sync /dev/sde 4 8 32 - faulty spare /dev/sdc 5 8 48 - faulty spare /dev/sdd 6 8 0 - spare /dev/sda
如果日志或dmesg中的驱动器上没有smartctl错误。 您可以尝试重新组装RAID:
mdadm --assemble /dev/md0 --scan --force