编辑**我有一个卷组由5个RAID1设备组成一个LVM和格式化的XFS。 第五个RAID设备丢失了RAIDconfiguration(cat / proc / mdstat不显示任何东西)。 两个驱动器仍然存在(sdj和sdk),但他们没有分区。 直到最近,LVM似乎都很高兴地使用sdj。 (做一个pvscan显示了前4个RAID1设备+ / dev / sdj)我从fstab中删除了LVM,重新启动,然后在LV上运行xfs_check。 它跑了大约半个小时,然后停了一个错误。 我再次尝试重新启动,这一次,逻辑卷不再存在。 现在正在寻找/ dev / md5,这已经不存在了(尽pipe它早先使用了/ dev / sdj)。 / dev / sdj有读取错误,但更换SATA电缆后,那些消失,所以驱动器似乎现在罚款。 我可以修改/ etc / lvm / backup / dedvol,将设备更改为/ dev / sdj并执行vgcfgrestore? 我可以尝试使用pvcreate -uuid KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ / dev / sdj来识别它,但是恐怕会擦除驱动器上的数据 更新:只是改变光电指向/ dev / sdj没有工作 vgcfgrestore – 文件/ etc / lvm / […]
我需要从连接到XenServer主机的iSCSI卷上托pipe的Linux VM获取文件,但是我不再有任何XS主机(它们都已被转换为VMware)。 我已经到了可以装入该iSCSI LUN上可用卷组(LVM)的位置,并且可以看到该LUN中以前由VM使用的所有磁盘。 但是mount和fdisk都不能检测FStypes(大概是因为它们不能读取VHD)。 我甚至尝试过使用vdfuse ,但没有运气让它工作。 有没有人有任何想法,我怎么能得到这个工作?
我是一个大傻瓜。 但我相信这可能是每个严重的Linuxpipe理员的事件。 我不小心将硬盘从LVM格式化为Ext3。 我尝试了一些恢复工具。 从500+ GB的内容我可以看到大约13 GB的恢复。 我从这个错误中学到了东西 但数据对我来说真的很重要。 即使恢复软件提供我恢复没有正确的文件名称。 他们是随机的文件名。 所以很明显,所有的源代码在这种状态下都没有用处。 因为在这个随机的状态下没有任何联系。 我可以看到所有的数据在那里。 mkfs.ext3重新写入块。 我不知道是否有任何希望,我可以在同一阶段恢复一切。 但无论如何恢复应该是在确切的格式。 请帮助我,如果你可以build议我任何开放/商业解决scheme,以恢复任何可能的。 我从这个错误中吸取了教训。
我在我的Mac上运行Oracle Enterprise Linux 5.6作为Virtualbox 4.0.12内的虚拟机。 最初我已经分配了8G的硬盘空间,现在我把虚拟硬盘大小增加到了30G。 重启后,虽然fdisk告诉我有31.4G,但是根逻辑卷仍旧显示旧的磁盘空间。 这是fdisk的输出。 [root@xyz ~]# fdisk -l Disk /dev/sda: 31.4 GB, 31457280000 bytes 255 heads, 63 sectors/track, 3824 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sda1 * 1 13 104391 83 Linux /dev/sda2 14 1044 8281507+ 8e Linux LVM […]
GRUB Loading Welcome to GRUB! error: no such device: <GUID>. Entering rescue mode… grub rescue> ls (hd0), (hd0,msdos2) (hd0,msdos1) grub rescue> set prefix=(hd0,msdos1)/grub root=hd0,msdos1 grub rescue> ls /boot error: file not found. grub rescue> insmod linux error: file not found. grub rescue> insmod normal error: file not found. grub rescue> normal Unkown command 'normal' grub […]
我在CentOS 6上有一个RAID 5arrays(顶部有LVM)。 arrays本身是一个LSI StorageTek磁盘架,有14个驱动器通过光纤通道电缆连接到服务器。 重新启动机器后,RAIDarrays将不会恢复。 Gnome中的磁盘工具表明它是“未运行,部分组装”。 我跑了mdadmin –assemble –scan ,里面说: mdadm: /dev/md/:storagetek-1_0 assembled from 1 drive – not enough to start the array. mdadm: No arrays found in config file or automatically / proc / mdstat说: Personalities : [raid6] [raid5] [raid4] md127 : inactive sdf1[7] sdi1[4] sde1[8] sdj1[3] sdc1[10] sdg1[6] sdd1[9] sdn1[12] sdb1[11] sdm1[0] […]
作为生产操作的一部分,我们正尝试使用Acronis TrueImage将硬盘从一台独立的基于Red Hat Enterprise Linux 5.5的计算机复制到另外两台。 我们正在使用一个没有RAID和没有networking存储的SATA驱动器。 三台电脑都被指定为相同的configuration。 成像操作成功,但是一旦我们尝试在其中一台计算机上启动其中一台成像驱动器,就会在引导过程中很早就崩溃,因为LVM无法识别卷的UUID。 请注意,RHEL5.5使用LVM作为根分区(除/boot以外的所有内容)。 映像驱动器在生成映像的计算机上工作正常,但在其他计算机上不工作,这表明磁盘控制器中的某些内容会导致UUID与LVM混淆。 有没有什么特别的技巧来build立一个基于LVM的系统,以便它能够在物理上不同的(但是相同的)硬件上进行逐位成像时,能够很好地发挥作用。 在configuration第一个系统以使恢复过程尽可能简单的时候,我们愿意采取一些预先打好的方式,理想情况下只是“恢复镜像并启动”。
在我运行OpenSuSE11.1一段时间的系统上,我执行了全新的SLES11 SP1安装。 系统使用了一个软件RAID5系统,在这个系统的顶部安装了一个大约2.5TB大小的单个分区的LVM,用于挂载/数据。 问题是SLES11.1不能识别软件RAID,因此我无法安装LVM。 这是vgdisplay和pvdisplay的输出: $ vgdisplay — Volume group — VG Name vg001 System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 2 VG Access read/write VG Status resizable MAX LV 0 Cur LV 1 Open LV 0 Max PV 0 Cur PV 1 Act PV 1 VG Size 2.73 TB PE Size […]
我的旧2 CPU服务器(32位LV Xeon,centos 5)驱动raid6arrays。 由于我从7x2T增长到8x2T(我不得不在CD上启动一个“更现代化”的fedora,甚至可以进行82小时的增长,但这是另一回事)LVM仅识别10.92TB / dev / md0的12TB,不到10 TB的文件系统: [root@svr ~]# mdadm –detail /dev/md0; pvdisplay /dev/md0; fdisk -l /dev/md0; df -k /dev/md0: Version : 0.90 Creation Time : Tue Dec 28 05:26:04 2010 Raid Level : raid6 Array Size : 11721071616 (11178.09 GiB 12002.38 GB) Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB) […]
首先:请原谅我的英文不好:) 我们在软件RAID 1模式下使用带有3个硬盘的Archlinux服务器。 应该有两个lvm扩展分区,我认为他们应该在卷组中工作。 (我没有设置这个系统。) 通过更新系统崩溃,我不能启动它。 我拿了一个debian live持久usb驱动器,并得到raid和一个卷组分区工作。 问题是卷的另一个分区没有被加载。 试 dd if=/dev/md1 bs=512 count=255 skip=1 of=/tmp/md1.txt 只给出encryption的字符。 有没有办法恢复卷组? 如果需要更多信息,我会发布。 高级谢谢:)