今天,我们遇到了一些最坏的情况,并开放给任何一种好的想法。
这是我们的问题:
我们正在使用多个专用存储服务器来托pipe我们的虚拟机。 在我继续之前,这里是规格:
我们用10个包含一个逻辑卷的光盘configuration了一个RAID6集。 系统中有两个热备份。
今天一个硬盘失败了。 这种情况不时发生,所以我们将其replace。 重build第二张光盘失败。 通常这是没有趣味的。 我们停止了繁重的IO操作,以确保稳定的RAID重build。
不幸的是,热备碟在重build时失败了,整个事情都停了下来。
现在我们有以下情况:
这是一个RAID 6系统,两个光盘出现故障,所以数据必须完好无损,但我们无法再使用此卷在线访问数据。
在search时,我们发现了以下线索。 我不知道他们是好还是坏:
将所有光盘镜像到第二组驱动器。 所以我们有可能尝试不同的东西而不会失去比现有更多的东西。
试图在R-Studio中重build数组。 但是我们对软件没有真正的经验。
拉动所有驱动器,重新启动系统,更换为槟榔控制器bios,重新插入硬盘驱动器一个接一个。 有人说这是把系统带到了网上。 有人说这个效应是零。 有人说,他们吹了整个事情。
使用诸如“rescue”或“LeVel2ReScUe”之类的未logging的areca命令。
联系计算机取证服务。 但是,谁通过电话初步估计超过20.000€。 这就是为什么我们会请求帮助。 也许我们错过了明显的?
当然,我们有备份。 但是有些系统丢失了一周的数据,这就是为什么我们想要重新启动系统。
任何帮助,build议和问题都是值得欢迎的。
我认为选项1是最好的。
采取12x新的硬盘驱动器,1x新的RAID控制器尝试镜像(dd if = of =)旧磁盘到新的1:1使用任何Linux机器。 build立一个新的服务器,使用1个新的RAID控制器加上12个新的硬盘驱动器
尝试在新服务器中重build数组。 成功? 大。 停止。
重build失败? 再次将旧的磁盘镜像到新的磁盘,请尝试选项i + 1
不幸的是这是一个非常常见的情况。 这个年头,谷歌有一个很好的研究,事实certificate,在重buildarrays的过程中,会丢失数据。 这可能会影响不同严重程度的不同RAID系统。 这是RAID6scheme:
这是为什么?
考虑一下:假设有一些数据,假设文件的前3个块有以下数据块:A1 + A2 + A3和以下奇偶校验:Ap + Ap坐在hdd1 … hdd5
如果在1和3之间丢失任何两个磁盘,则由于数据不可恢复而丢失数据,因此您有2个奇偶校验和1个数据块。
现在有10个磁盘的情况可能会有所不同,但我想它的处理方式与将数据拆分为8个块并将奇偶校验保存到其他2个驱动器并具有2个热备份的方式相同。 你知道你的RAID控制器configuration的细节吗?
我会开始从异地备份恢复(我想你有一些),服务回来尝试恢复尽可能多的数据,使用Unix和DD驱动器的图像和使用它作为循环设备,例如。
http://wiki.edseek.com/guide:mount_loopback
您需要知道RAID控制器使用的是什么types的元数据,如果幸运的话,可以使用dmraid等工具来支持。
但是,这并不意味着你可以完全恢复数据,因为文件通常分布在很多块中,恢复很可能无法恢复你的任何数据。
更多关于RAID的信息