我想删除linux系统中LVMconfiguration的软件raid-1arrays[处于降级状态],无法删除。 我甚至尝试使用Knoppix Live CD删除与LVM关联的RAID-1,但是这种尝试也失败了。 当我分析这个问题时,有一个configuration了RAID的LVM,逻辑卷(vg0-root)被安装在“/”文件系统上。 你可以请build议任何方式删除这个RAID 1arrays没有数据丢失。
请找出系统的configuration:
root@:~# fdisk -l Disk /dev/sdb: 500.1 GB, 500107862016 bytes 255 heads, 63 sectors/track, 60801 cylinders, total 976773168 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disk identifier: 0x000bb738 Device Boot Start End Blocks Id System /dev/sdb1 2048 34613373 17305663 da Non-FS data /dev/sdb4 * 34613374 156248189 60817408 fd Linux raid autodetect Partition 4 does not start on physical sector boundary. Disk /dev/sda: 500.1 GB, 500107862016 bytes 255 heads, 63 sectors/track, 60801 cylinders, total 976773168 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disk identifier: 0x000bb738 Device Boot Start End Blocks Id System /dev/sda1 2048 34613373 17305663 da Non-FS data /dev/sda4 * 34613374 156248189 60817408 fd Linux raid autodetect Partition 4 does not start on physical sector boundary. root@:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 465.8G 0 disk ├─sda1 8:1 0 16.5G 0 part └─sda4 8:4 0 58G 0 part └─md0 9:0 0 58G 0 raid1 ├─vg0-swap (dm-0) 252:0 0 1.9G 0 lvm [SWAP] ├─vg0-root (dm-1) 252:1 0 19.6G 0 lvm / └─vg0-backup (dm-2) 252:2 0 19.6G 0 lvm sdb 8:16 0 465.8G 0 disk ├─sdb1 8:17 0 16.5G 0 part └─sdb4 8:20 0 58G 0 part root@S761012:~# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid1 sda4[0] 60801024 blocks super 1.2 [2/1] [U_] unused devices: <none> root@:~# mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Wed Sep 23 02:59:04 2015 Raid Level : raid1 Array Size : 60801024 (57.98 GiB 62.26 GB) Used Dev Size : 60801024 (57.98 GiB 62.26 GB) Raid Devices : 2 Total Devices : 1 Persistence : Superblock is persistent Update Time : Tue Mar 7 23:38:20 2017 State : clean, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 Name : Raja:0 UUID : 8b007464:369201ca:13634910:1d1d4bbf Events : 823063 Number Major Minor RaidDevice State 0 8 4 0 active sync /dev/sda4 1 0 0 1 removed root@:~# mdadm --manage /dev/md0 --fail /dev/sda4 mdadm: set device faulty failed for /dev/sda4: Device or resource busy root@:~# mdadm --manage /dev/md0 --remove /dev/sda4 mdadm: hot remove failed for /dev/sda4: Device or resource busy root@:~# mdadm --stop /dev/md0 mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group? root@:~# pvdisplay --- Physical volume --- PV Name /dev/md0 VG Name vg0 PV Size 57.98 GiB / not usable 3.00 MiB Allocatable yes PE Size 4.00 MiB Total PE 14843 Free PE 4361 Allocated PE 10482 PV UUID uxH3FS-sUOF-LsIP-kAjq-7Bwq-suhK-CLJXI1 root@:~#:~# lvdisplay --- Logical volume --- LV Path /dev/vg0/swap LV Name swap VG Name vg0 LV UUID BIwp5H-NYlf-drQJ-12Vf-5qYM-7NUj-ty9GhE LV Write Access read/write LV Creation host, time S000001, 2015-09-23 03:00:58 +0000 LV Status available # open 2 LV Size 1.86 GiB Current LE 476 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:0 --- Logical volume --- LV Path /dev/vg0/root LV Name root VG Name vg0 LV UUID SBf1mc-iqaB-noBx-1neo-IEPi-HhsH-SM14er LV Write Access read/write LV Creation host, time S000001, 2015-09-23 03:01:19 +0000 LV Status available # open 1 LV Size 19.54 GiB Current LE 5003 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:1 --- Logical volume --- LV Path /dev/vg0/backup LV Name backup VG Name vg0 LV UUID w1jGGy-KkfJ-0lDp-MFDl-8BJU-uJWU-24XKSL LV Write Access read/write LV Creation host, time SRAJA, 2016-10-22 05:30:03 +0000 LV Status available # open 0 LV Size 19.54 GiB Current LE 5003 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:2 root@:~# vgdisplay --- Volume group --- VG Name vg0 System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 674 VG Access read/write VG Status resizable MAX LV 0 Cur LV 3 Open LV 2 Max PV 0 Cur PV 1 Act PV 1 VG Size 57.98 GiB PE Size 4.00 MiB Total PE 14843 Alloc PE / Size 10482 / 40.95 GiB Free PE / Size 4361 / 17.04 GiB VG UUID LjCUyX-25MQ-WCFT-j2eF-2UWX-LYCp-TtLVJ5
最后我试着做:
root@S761012:~# mdadm --zero-superblock /dev/md0 mdadm: Couldn't open /dev/md0 for write - not zeroing
root @:〜#umount / dev / md0 umount:/ dev / md0:未装载root @:〜#root @:〜#mdadm –manage / dev / md0 –remove / dev / sda4 mdadm:hot remove failed for / dev / sda4:设备或资源busy root @:〜#mdadm –stop / dev / md0 mdadm:无法独占访问/ dev / md0:也许正在运行的进程,挂载的文件系统或活动卷组? root @:〜#mdadm –zero-superblock / dev / sda4 mdadm:无法打开/ dev / sda4进行写入 – 无法清零
由于sda4是活动磁盘,它不允许我做任何操作。 你能不能build议任何其他方式来实现相同的。
我试图使用提到的步骤:
create new log file select /dev/sda and press Proceed select Intel/PC partition type select Analyse select Backup (at first starting `testdisk`) or select Quick Search and Press Enter select Deeper Search -> After deep search is not showing any thing.
– > 没有find或select分区进行恢复。 它是空的。 由于哪个启动修复也没有按预期工作。 总是要去抢救救援模式。
在此之前,你必须了解它是如何工作的。 分区在整个磁盘sda上工作,软件RAID在分区上工作,接下来如图所示:
磁盘sda – >分区sda4 – >软件RAID md0 – > LVM物理卷 – > LVM卷组vg0 – > LVM逻辑卷 – >文件系统 – >系统挂载点。
您不能从正在运行的命令行界面卸载根文件系统。 这就是为什么你需要从CD / DVD运行相同的Linux系统。 您可以使用相同的Linux安装CD或最新版本的SystemRescueCD 。 从CD启动后需要检查:
是软件RAID启动和他的状态命令cat /proc/mdstat ? RAID设备的md可能有另一个号码。
LVM卷组是否由命令vgdisplay激活?
文件系统(在LVM卷上)是否由命令mount ?
然后通过命令umount置于LVM卷上的所有文件系统,使用命令vgchange -an vg0取消激活LVM卷组vg0,使用命令mdadm --stop /dev/md0closuresRAIDarrays,通过命令删除RAID设备mdadm --remove /dev/md0 ,然后通过命令mdadm --zero-superblock /dev/sda4 。
在此之前,您需要备份所有LVM卷文件系统上的所有文件。
可能你会恢复grub引导加载程序。
更新:
恢复启动之前,您需要恢复LVM! 从SystemResqueCD重新启动您的系统。 运行fdisk /dev/sda并按下:
t (type) 4 8e (Linux LVM) w
然后运行testdisk :
create new log file select /dev/sda and press Proceed select Intel/PC partition type select Analyse select Backup (at first starting `testdisk`) or select Quick Search and Press Enter select Deeper Search select Linux LVM with heights start CHS values and press space key to change this found structure as Primary partition and press enter select Write
然后通过scp backup.log user@somehost:~某个地方的testdisk备份存储起来,再从SystemResqueCD重新启动。 重新启动后,您可以通过命令vgdisplay查看您的卷组vg0 。 如果没有,则再次运行testdisk ,加载testdisk的备份,并重新启动另一个创build的Linux LVM分区。
成功恢复LVM后,您可以按照Ubuntu Boot修复中所述恢复启动。
您可能必须使用shutdown命令恢复到“单用户”模式,然后在单用户模式下卸载该卷。 此时,RAID-1卷将不会被使用,您应该可以删除RAIDarrays。
现在关机应该把你带到单用户。
关机-h现在将暂停系统
关机-r现在将重新启动它
shutdown –help为您提供了命令的所有选项,包括将消息发送给login用户,使系统进入单用户模式。