我只是检查了我的Raid10状态,它说“干净,退化”为什么呢? 没有退化坏事或什么东西? 我有一个坏的磁盘“/ dev / sdd”,所以我replace了他,点击“恢复”,它已经完成,直到100%。 但是现在它还在退化,好像另一个磁盘从RAID中丢失了。
细节:
版本:1.2创build时间:2016年4月12日16:19:22 Raid级别:raid10数组大小:21487212032(20491.80 GiB 22002.91 GB)使用开发大小:1953382912(1862.89 GiB 2000.26 GB)Raid Devices:22设备总数:21持续时间:超级块是持久的
更新时间:Sun Mar 26 22:39:05 2017状态:干净,降级活动的设备:21工作设备:21失败的设备:0备用设备:0
布局:近= 2块大小:512K
名称:storage02off:storage02off(本地到主机storage02off)UUID:12ec260e:98e29218:c957740e:0e958366事件:154450
数字Major Minor RaidDevice状态23 8 16 0活动同步/ dev / sdb
1 8 32 1活动同步/ dev / sdc
26 8 48 2活动同步/ dev / sdd
3 8 64 3主动同步/ dev / sde
4 8 80 4活动同步/ dev / sdf
24 8 96 5活动同步/ dev / sdg
6 8 112 6主动同步/ dev / sdh
7 8 128 7主动同步/ dev / sdi
8 8 144 8活动同步/ dev / sdj
9 8 160 9主动同步/ dev / sdk
10 8 176 10活动同步/ dev / sdl
11 8 192 11活动同步/ dev / sdm
12 8 208 12活动同步/ dev / sdn
13 8 224 13活动同步/ dev / sdo
14 8 240 14活动同步/ dev / sdp
15 65 0 15主动同步/ dev / sdq
16 65 16 16活动同步/ dev / sdr
17 65 32 17活动同步/ dev / sds
18 0 0 18被删除
25 65 64 19活动同步/ dev / sdu
22 65 80 20主动同步/ dev / sdv
21 65 96 21活动同步/ dev / sdw
好的,我发现我的arrays中应该有22个磁盘,但是我只有21个。他们中的1个被删除,名为/ dev / sdt他显示在“物理设备”下面,因此他连接到机器上。
但是,当我点击Raidpipe理中的“恢复”,我不认为他是未使用的磁盘..那是什么?
我find了解决scheme,我只是不得不重新添加磁盘的RAID,不知何故,他不再是它的一部分。 所以我使用了这个命令:mdadm –manage / dev / md0 –re-add / dev / sdt
之后,RAID刚刚恢复了自我,现在它处于“清洁”状态。