我们正在部署红帽企业虚拟化集群,并且在创buildlvm分区之后,我们遇到了一个尝试启动clvmd服务的问题。 以下已成功完成: vgchange -cy RHEVMVolGroup lvmconf –enable-cluster dracut… reboot 现在我们正在尝试运行: service clvmd restart 并在/ var / log / messages中出现错误: clvmd could not connect to cluster manager Can't open cluster manager socket: No such file or directory strace -f clvmd注意到以下问题: …. connect(…/var/run/cman_client…) (No such file or directory) corosync.ipc (Connection refused) …. 之后我们可以看到pvs命令从另一个angular度报告了这个问题: … connect () failed […]
我的RAID1arrays/ dev / md1正在重build,其中一个磁盘已被replace。 问题:源磁盘有不可恢复的错误,如果我不想丢失整个数据集(无备份,没有借口),我唯一的select就是耐心地用hdparm –write-sector 0123456789 –yes-i-know-what-i-am-doing /dev/sde写入有故障的扇区hdparm –write-sector 0123456789 –yes-i-know-what-i-am-doing /dev/sde (我的源磁盘),以便进程可以继续。 我知道我的一些文件将被破坏,因为我在其中存储的某些扇区中写入了零。现在我需要用debugfs来识别这些文件,并相应地对其进行处理。 我的卷布局如下: 相关的可能损坏的文件是“这里” – + …但是它的inode是什么? | v + ———————————————– + | Ext4文件系统| + ———————————————– + | LVM LV | + ———————— + ———————- + | LVM PV | LVM PV | + ———————— + ———————- + | / dev / […]
我有以下lvmconfiguration。 Hard Disk: /dev/sdb (Size 10 GB) VG: vg_root on /dev/sdb THIN_POOL thin_pool occupying the whole physical extent lvcreate -y –extents 100%free –thin vg_root/thin_pool Thin volume on the thin pool lvcreate –name lv_1 –virtualsize 1GB –thinpool vg_root/thin_pool Another thin volume on the thin_pool lvcreate –name lv_2 –virtualsize 2GB –thinpool vg_root/thin_pool mount and create a file […]
我正在运行一个私有云(opennebula,KVM),在这里我直接使用LVM逻辑卷并在文件系统上使用磁盘映像(一个速度更快,另一个更容易迁移),所有这些都在raid5之上。 我设法购买了一些SSD,我可以把它放到我的服务器上,我想用它们作为caching,很可能使用DMcaching(因为bcache需要重新格式化磁盘,而flashcache仍然不是主线)。 现在,我想要caching多个LV,我可以为每个LV创build单独的元数据和caching分区,或者我可以创build一个新的LV,将dm-cache放在其上,然后将其用作PV,并将先前LV一个接一个。 所以分层结果是: md1 == sda + sdb + sdc + sdd PV0 == md1 LV0 < – PV0(我打算离开宿主操作系统的卷未caching) PV1 == LV0 + dmcache ( LV1 , LV2 , LV3 ,…)< – PV1 所以我的问题是: 这有道理吗? 🙂 对于额外的LVM层是否有显着(> 5%)的性能损失? 在这个设置中是否有一个固有的不兼容问题,我应该知道?
在IBM P5 505(maint level 5300-07)服务器上,有一个通过外部Ultra320 SCSI端口(DAS)连接的连接访问的外部存储器。 外部存储被检测为属于卷组dbvg的hdisk2。 卷组dbvg被用作Oracle RAC 10gR2解决scheme的存储。 以下是有关卷组dbvg : [admin@node1 ~]$ lsvg dbvg VOLUME GROUP: dbvg VG IDENTIFIER: 0004523a0000d3000.. VG STATE: active PP SIZE: 128 megabyte(s) VG PERMISSION: read/write TOTAL PPs: 3725 (476800 mega.. MAX LVs: 256 FREE PPs: 0 (0 megabytes) LVs: 111 USED PPs: 3725 (476800 mega.. OPEN LVs: 64 […]
此问题属于虚拟机通过LVM获取其存储的KVM节点。 所以每个虚拟机都有自己的逻辑卷。 每晚一些虚拟机备份(快照 – dd [..] | ssh [..] – 没什么特别的)。 不过,昨晚这个搞砸了LVM系统。 在第二次备份开始2-3分钟后,内核开始logging“挂起的任务” – 简而言之,它将三个qemu-kvm进程报告为挂起和dd进程。 至less有一台虚拟机(这是我们监控的托pipe服务器)出现故障 – 更确切地说,它还在运行,但服务不再有任何回应。 VNC在虚拟机内显示挂起的任务。 硬复位(和迁移 – 见下文)后,虚拟机是好的,但dd进程永远不会终止( kill -9什么也不做),像lvdisplay这样的命令不再工作 – 他们只是没有任何东西。 lvmetad也不能重启,属于LVM的每个进程都不能被lvmetad 。 他们永远挂在磁盘状态,而节点一般运行良好。 由于virsh shutdown也不能工作了 – “设备或资源繁忙”,所以发生故障的VM必须迁移到另一个节点。 但其他的虚拟机也在继续工作。 几个星期前,我们在另一个节点上运行了这个function,“快照”虚拟机也出现故障,执行了从4.4到4.9的内核升级(因为我们不得不重新启动机器),并没有再次看到这样的问题。 但是,由于今天出现问题的节点已经有两个月的正常运行时间,这并不是说这个问题确实是固定的。 所以 – 在这个日志里有没有人能看到比我们更多的东西呢? 这将不胜感激。 谢谢阅读! Apr 28 00:37:15 vnode19 kernel: INFO: task qemu-kvm:32970 blocked for more than 120 seconds. […]
我目前正在使用Xen和Centos来开发一个新的虚拟化环境。 我们打算将这些domU部署到LVM卷中。 目前,阻止这种工作顺利进行的唯一因素是Kickstart脚本坚持进行分区。 这是我们现在的KS模板的相关部分(我已经搞乱了): # Partitioning clearpart –all –initlabel –drives=xvda part / –size=0 –grow –ondisk=xvda –fstype=ext3 这设置了一个单独的分区,并安装到它 – 这将是很好,但我宁愿如果没有分区,并直接安装到现有的LVM(这样我们就可以从dom0挂载LVM进行备份和维护目的)。 这可能是我做错了,而且应该把数据导出为xvda1而不是xvda – 我非常乐意修改 – 但是我仍然不确定如何导航Kickstart! 我真的很感激任何帮助:)。 提前欢呼!
我创build了一个包含单个ext3分区的逻辑卷( scandata )。 它是卷组中唯一的逻辑卷( case4t )。 所述卷组由3个物理卷组成,这三个物理卷是单个块设备( /dev/sdb )上的三个主分区。 当我创build它时,我可以通过块设备/dev/mapper/case4t-scandatap1挂载分区。 自上次重启以来,上述的块设备文件已经消失。 我可能会注意到 – 我不确定 – 我的上级(大学教授)通过运行sudo chmod -R [his name] /usr/bin提示重新引导,从而消除了path上的所有干系,我们俩都来自sudo -ing。 这个问题已经(暂时)通过这一行动得到纠正。 现在我将削减喋喋不休,开始terminal转储: $ sudo pvs; sudo vgs; sudo lvs Logging initialised at Sat Jan 8 11:42:34 2011 Set umask to 0077 Scanning for physical volume names PV VG Fmt Attr PSize PFree /dev/sdb1 […]
我有一台运行Ubuntu 10.10服务器版kvm的服务器和libvirt(都是ubuntu-native软件包)硬盘分区是用LVM完成的。 然后,我使用Virt-Manager创build了一些虚拟机,并将这些虚拟机分配给虚拟机。 现在虚拟机不启动。 Virt-Manager显示此Guest虚拟机的CPU使用率为100%,VNC连接状态为100% 从硬盘启动 特定于VM的日志文件不显示任何exception,只有syslog显示警告 警告:qemudParsePCIDeviceStrs:1422:意外的退出状态“1”,qemu可能失败 我能做些什么来发现错误?
由于clvmd拖延内核( https://serverfault.com/questions/226466/lvm-running-vgscan-causes-clvmd-to-block )我决定硬重启主机,因为软重启停滞。 但是启动时,无法在其中一个逻辑卷上运行e2fsck,然后无法启动。 下面的错误消息我手动input,因为我不能复制和粘贴,因为从串行控制台。 Checking filessytems /dev/mapper/vg_gothamdb1-lv_root: clean, 59708/5120000 files, 712853/20480000 blocks /dev/sda1: clean, 39/128016 files, 51688/512000 blocks fsck.ext4: No such files or directory while trying to open /dev/mapper/vg_gothamdb1-lv_home /dev/mapper/vg_gothamdb1-lvhome: The superblock could not be read or does not describe a correct ext2 filesystem. if the device is valid and it really contains an […]