我正在为一个每年停电几次,影响他们的Linux服务器的朋友编写参考资料。 这个人对linux系统pipe理并不熟悉,所以我想包含屏幕截图和相当全面的描述,以及如何回应。 其中一个比较常见的问题就是如何从根文件系统中的损坏或丢失的超级块中恢复数据(每年几次;他们处于闪电发生的区域)。 我有关于如何解决这个问题的文档,但是假设你有一个熟悉linux和基于控制台的系统pipe理的知识。 我想要做的是在我的服务器上设置一个KVM,有意识地破坏根文件系统,然后截取最初的发现以及要恢复的步骤。 我似乎无法触发丢失/损坏的超级块问题。 我一直在尝试这样的事情: (/ dev / sda2是根LVM分区所在的地方)dd if = / dev / zero of = / dev / sda2 bs = 1024 count = 1 seek = 1 (/ dev / mapper / vg_sys-lv_root是根LVM分区)dd if = / dev / zero of = / dev / mapper / vg_sys -v_root bs = […]
这是我的drbdconfiguration resource mysql { protocol C; floating 10.100.101.1:7788 { device /dev/drbd0; disk /dev/VolGroup00/LogVol02; meta-disk internal; } floating 10.100.101.2:7788 { device /dev/drbd0; disk /dev/VolGroup01/LogVol02; meta-disk internal; } } 两个节点上的LVM上的磁盘设置为50G,我在两个节点+ 4G(现在总共54G)上增加了LVM, 但是当我尝试运行 [root@db1 ~]# resize2fs /dev/VolGroup00/LogVol02 resize2fs 1.39 (29-May-2006) resize2fs: Device or resource busy while trying to open /dev/VolGroup00/LogVol02 Couldn't find valid filesystem superblock. [root@db1 ~]# 它说我不能。 […]
我已经将一个CentOS 5.11服务器从VmWare迁移到Hyper-V,并试图启动服务器。 我收到以下错误消息: “ No volume groups found ”“ "VolumeGroup00" not found ”,因此您在截图中看到的其他消息。 我已经从我手中的Live CD引导VM,并且可以看到并挂载卷组(lv在卷组中)正常。 这是vgdisplay命令输出: 您可以在第一张截图的开头看到grub的内容。 你为什么认为这是发生? 有小费吗? 编辑: hd0映射到/dev/sda因为它应该是。
我试图将一个ext3文件系统的LVM逻辑卷从一个系统复制到另一个系统上的一个文件,我可以将它装载为一个环回设备。 我已经尝试了以下命令来复制卷: dd if=/dev/VolGroup01/example-volume bs=1M | ssh target-system dd of=/backup/example-volume-image bs=1M 这给了我一个与逻辑卷大小相同的文件,但是当我尝试挂载它时,我得到: [root@target-system backup]# mount -o loop example-volume-image /mnt mount: you must specify the filesystem type [root@target-system backup]# mount -o loop -t ext3 dev2-endeca1-rootfs /mnt mount: wrong fs type, bad option, bad superblock on /dev/loop0, missing codepage or other error In some cases useful info […]
我有一个逻辑卷,分为三个物理卷。 我不得不把这个逻辑卷移到另一个物理卷。 这与pvmove命令很好地工作。 不过,后来我发现逻辑卷仍然是条纹的,现在所有三个条纹都在同一个物理卷上。 有没有办法将带区逻辑卷转换成线性逻辑卷? 我在Linux上使用LVM2。 我认为很明显的可能性是重新命名条带逻辑卷,创build一个新的线性逻辑卷,然后复制数据,但这需要使文件系统离线一段时间。 不幸的是,下周之前我不能这样做。 有没有更好的select?
按照以下命令安装KVM磁盘(LVM): # losetup /dev/loop0 foo.img # kpartx -av /dev/loop0 # mount /dev/mapper/loop0p1 /mnt # unmount /mnt # kpartx -dv /dev/loop0 # losetup -d /dev/loop0 问题是当我想要做kpartx -d / dev / loop0我得到: device-mapper: remove ioctl failed: Device or resource busy device-mapper: remove ioctl failed: Device or resource busy 我试过用lsof来寻找它,但我找不到任何东西,任何人有任何想法如何我可以强迫这个或我做错了什么?
用Debian 6.0 / squeeze设置的服务器。 在挤压安装过程中,我将两个500GB SATA磁盘(/ dev / sda和/ dev / sdb)configuration为RAID1(使用mdadmpipe理)。 RAID保留500 GB的LVM卷组(vg0)。 在卷组中,有一个逻辑卷(lv0)。 vg0-lv0使用extfs3格式化,并作为根分区挂载(没有专用/启动分区)。 系统使用GRUB2启动。 在正常使用情况下,系统启动正常。 另外,当我尝试并closures第二个SATA驱动器(/ dev / sdb)后,系统没有问题,重新连接驱动器后,我能够 – 将/ dev / sdb1添加到RAIDarrays。 但是:删除第一个SATA驱动器(/ dev / sda)之后,系统将不再启动! 一个GRUB欢迎消息显示一秒钟,然后系统重新启动。 我试图在/ dev / sdb(“grub-install / dev / sdb”)上手动安装GRUB2,但这并没有帮助。 当第一个磁盘被移除时,显然挤压不能设置GRUB2从第二个磁盘启动,这似乎是运行这种软件RAID1时相当重要的特性,不是吗? 目前,我失去了这是GRUB2,LVM还是RAID设置的问题。 任何提示?
我使用了命令clearpart –all –initlabel的kickstart文件,以确保anaconda在尝试创build和格式化新分区之前清除所有磁盘。 过去我在物理机器上工作。 但是,在将底层LVM卷作为存储的KVM guest虚拟机上这样做时,Anaconda会在以下警告中等待用户input: 我将自己回答这个问题。 我错误地认为我的问题和解决scheme与ServerFault上的这个问题有关。 既然不是,我正在创造并回答一个新的问题。
我目前正在开发一个Xen备份系统,但是我遇到了以下问题: 我有两种备份方法: 从LVM快照中执行dd ,并打开它,然后远程rsync 将LVM快照和rsync一切安装到远程位置 现在第二个选项允许我使用rdiff-backup这样我就可以保存增量备份并节省大量空间,而第一个选项实际上是非常重要的。 现在我有两个问题: 有什么办法没有“空白”使用dd ? 比方说,我有一个50GB的LVM卷,只有3 GB的使用,使用dd它会创build一个50 GB的图像(所以浪费了47 GB)。 tar可以解决这个问题,但需要很多额外的时间(我基本上没有) 这些由dd创build的img文件可以以某种方式增量保存吗?
我有一个逻辑卷作为虚拟客户操作系统的文件系统。 我很满意我的客户操作系统的状态,并想对其进行备份。 我使用lvcreate创build了一个快照,我正在尝试装载快照,以便可以将数据放在备份中。 真奇怪的是,我绝对无法安装LVM快照。 $> mount /dev/guest_images_lvm/cvfunc_vol1_ss /mnt/ops/backup/ mount: you must specify the filesystem type 使用挂载的-t参数我已经尝试过ext3和ext4文件系统types,但在每种情况下,我得到以下错误: mount: wrong fs type, bad option, bad superblock on /dev/mapper/guest_images_lvm-cvfunc_vol1 以下是快照卷的lvs输出: LV VG Attr LSize Origin Snap% Move Log Copy% Convert cvfunc_vol1_ss guest_images_lvm swi-a- 1.00g cvfunc_vol1 0.00 为了安装LVM快照,我需要提供哪些正确的参数? 有另外一种方法可以确定快照的文件系统types吗? 对于它的价值,我让RedHat KVM virt-manager GUI工具创build卷。 编辑更多信息请求。 输出lvs LV VG Attr LSize […]