我有硬盘RAID 10configuration4硬盘专用服务器,它工作正常,直到昨天,当它开始在几分钟内随机崩溃。 我已经联系了我的数据中心,他们运行了一个系统诊断程序,他们发现我的RAID 10arrays中的一个硬盘有缺陷,他们更换了硬盘,并开始自动重build。 然后他们以正常模式启动系统,当它再次开始崩溃时,它正常工作了15分钟。 我自己做了几个诊断,当我检查物理驱动器的状态:
arcconf GETCONFIG 1 PD
我注意到HDD 0,0有SMART错误,我报告给我的DC,他们证实了这一点,并要求与新的设备交换,但他们build议我备份我的数据(〜2TB),因为它很可能会丢失我的数据。 我已经备份了我的数据,然后他们replace了第二个硬盘。 启动后,他们需要强制启动RAID控制器,系统以恢复模式启动。 我认为他们第一次换了一个错误的驱动器,因为两个驱动器在不同的镜像集中同时出现故障的可能性不大,但这是另一个故事,我的问题是,第二个replace的硬盘驱动器不是自我重build。 我试图清除该驱动器的元数据:
arcconf TASK START 1 DEVICE 0 0 CLEAR
并将驱动器的状态设置为热备份
arcconf SETSTATE 1 DEVICE 0 0 HSP LOGICALDRIVE 0
所以它开始自动重build过程,但没有成功。
我的RAID 10arrays数据是4个HDD驱动器HDD 0,0和HDD 0,1在镜像设置和HDD 0,2和硬盘0,3在另一个。
逻辑设备状态的输出是:arcconf getconfig 1 ld
https://dl.dropbox.com/u/10839791/ld.txt
物理驱动状态的输出是:arcconf GETCONFIG 1 PD
https://dl.dropbox.com/u/10839791/pd.txt
控制器状态:
https://dl.dropbox.com/u/10839791/controller.txt
我的问题是有没有办法让这个驱动器重build它自己而不丢失任何数据。
谢谢。
我想答案可能是Adaptec控制器一次只能重build1个驱动器。
我有一个Adaptec 5805Z控制器在RAID 10与4组。 我们刚刚从每个组中取出1个驱动器,目前只有1个组正在重build。 我知道所有的更换驱动器都是好的,因为我们在它们上面运行了坏块,而且它们肯定比他们正在replace的驱动器更大。
@SkechBoy,你知道你的第一组重build是否在第二组开始前完成?
更新:刚刚收到来自Adaptec的确认,“控制器通常会重build一个段”。 换句话说,您必须等待第一个RAID组重build,然后才能开始重build第二个RAID组。