我有一个mdadm raid6arrays与13x1TB驱动器。 在10分钟内,其中3个驱动器掉出arrays…我们假设电缆连接到控制器卡并更换了,但现在我们需要将驱动器重新安装到工作arrays中。
因为md0被标记为失败,我们删除了mdadm数组,并使用原来的13个驱动器创build了一个新的md0。 1在重build期间再次失败,所以我们现在有一个退化的md0。 问题是lvm没有看到mdadm中存在的数组。 有什么我们可以做的,以恢复我们的数据?
$ pvscan
PV /dev/sda5 VG nasbox lvm2 [29.57 GiB / 0 free] Total: 1 [29.57 GiB] / in use: 1 [29.57 GiB] / in no VG: 0 [0 ]
$ cat / proc / mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid6 sdc1[1] sdg1[5] sdb1[0] sdf1[4] sde1[3] sdd1[2] sdi1[7] sdl1[10] dm1[11] sdh1[6] sdj1[8] sdn1[12] 10744336064 blocks super 1.2 level 6, 64k chunk, algorithm 2 [13/12] [UUUUUUUUU_UUU] unused devices: <none>
我认为我们需要做的是让lvm检测mdadm数组,以便我们可以挂载它,但是如果我在LVM中创build一个新卷组,它将从数组中清除所有数据。
所以简单来说,我们如何从md0得到我们的数据…
更新 :我们的系统pipe理员之一能够恢复LVMconfiguration备份,所以它现在显示在LVM,但我们仍然无法安装驱动器查看数据。 也许坏的分区表?
$ pvscan
PV /dev/sda5 VG nasbox lvm2 [29.57 GiB / 0 free] PV /dev/md0 VG zeus lvm2 [10.01 TiB / 4.28 TiB free] Total: 2 [10.04 TiB] / in use: 2 [10.04 TiB] / in no VG: 0 [0 ]
$ mount / dev / md0
mount: /dev/mapper/zeus-data already mounted or /mnt/zeus busy
从这篇文章中获取信息,看看是否有任何帮助: http : //www.linuxjournal.com/article/8874
pvscan显示存在LVM物理卷,但LVM卷组不一定处于活动状态。 看到vgdisplay的输出,应该是这样的
--- Volume group --- VG Name zeus System ID Format lvm2 [...]
如果zeus卷组不显示,您可能需要使用vgchange zeus -ay 。 然后,检查lvdisplay输出。 这应该输出系统中的每个逻辑卷:
--- Logical volume --- LV Name /dev/zeus/volume_name VG Name zeus LV Status available [etc...]
你应该可以用mount /dev/zeus/volume_name /mnt/target挂载所需的卷。