Articles of lvm

相同的驱动程序不同的PV大小

我有相同的驱动器的奇怪的情况: pvdisplay — Physical volume — PV Name /dev/sda5 VG Name group1 PV Size 465.52 GiB / not usable 1.81 MiB Allocatable yes PE Size 4.00 MiB Total PE 119173 Free PE 12 Allocated PE 119161 PV UUID OLjgd0-83Ya-dxKM-llAV-a5mi-wJ1H-bHs59E — Physical volume — PV Name /dev/md1 VG Name group1 PV Size 465.40 GiB / not […]

udev断开连接和hibernate/挂起的规则

我有一个外部硬盘,其中包含不同的GPT分区。 其中之一是LVM分区。 这个分区包含在一个LVM卷组(称为“volga”)中,该组又被分割成许多不同的逻辑卷,其中一个是“数据”并且是一个encryption的分区。 每当我插入这个外部硬盘驱动器,我想我的操作系统: 启用逻辑卷“数据” 使用cryptsetup在/dev/mapper/data使用存储在/somewhere/keyfile的密钥文件创build未encryption的数据节点 mount /dev/mapper/data到/mnt/data 4.将/mnt/data/Music放入/home/qdii/Music (和其他目录) 此外,每当设备拔掉,我想我的操作系统清除一切。 到目前为止,我有2个脚本。 第一个打开并映射设备: #!/bin/bash sleep 5 vgchange -aly volga cryptsetup luksOpen -d /somewhere/keyfile /dev/mapper/volga-data data mount /dev/mapper/data /mnt/data for i in Music Videos Ebooks Iso Vbox Games Vrac do mount –bind /mnt/data/$i /home/qdii/$i done 第二个closures和取消映射该设备: #!/bin/bash umount -l /run/media/qdii/zero umount -l /home/qdii/{Videos,Ebooks,Iso,Music,Vbox,Games,Vrac} umount -l /mnt/data […]

Linux自动在RAID成员上创buildLVM分区?

我已经有一个软件RAID1arrays在一年多的时间里在/ dev / md0之上有LVM分区。 我在周末重新启动以应用一些内核补丁,现在arrays不会出现。 在启动时获取“继续等待;或按S跳过安装或M进行手动恢复”。 我打了M,以root身份login,并且RAIDarrays已启动,但是没有任何LVM分区可用。 这就像一切都消失了。 我停止了arrays,并将其与–run一起–run单个磁盘(它是RAID1)。 好吧,lvm的东西现在在那里。 所以我添加了一个新的磁盘,并将其添加到降级arrays。 它开始重build。 我做了一个我刚添加的新磁盘的fdisk,里面有一个“Linux LVM”types的全新分区。 我没有添加该分区。 这是怎么回事? 我甚至没有使用分区,我只是使用原始设备。

主机卷resize后,在KVM guest虚拟机中无法读取卷

我有一个KVM客户需要更多的分区之一的空间。 该分区实际上是主机上的一个LVM卷。 所以我首先在guest虚拟机上卸载分区,切换到主机,并用lvextend调整我的逻辑卷的大小: lvextend -L +100G /dev/vg/lv01 然后我检查了文件系统: e2fsck -f /dev/vg/lv01 … /dev/vg/lv01: 244/6553600 files (4.1% non-contiguous), 21374526/26214400 blocks 并扩展它: resize2fs /dev/vg/lv01 在最后检查之前: e2fsck -f /dev/vg/lv01 … /dev/vg/lv01: 244/13107200 files (4.1% non-contiguous), 21785726/52428800 blocks 注意块数的增加? 一切看起来不错! 我可以在主机上挂载文件系统并读取其内容,并在单个ext4分区上显示新的大小: parted /dev/vg/lv01 GNU Parted 2.3 Using /dev/dm-3 Welcome to GNU Parted! Type 'help' to view a list of […]

多path设备无主机。 如何从LVM和系统中删除它?

操作系统:红帽企业Linux AS版本4 存储的人没有以前出口到系统的几个磁盘(有时发生的事情)。 那么,这是没有问题的,因为该磁盘是空的,数据被迁移到其他PV。 问题是设备被移除而没有在系统中的先前移除过程。 我怎样才能从整个系统中删除丢失的磁盘? multipath -ll: mpath10 (350002ac01bde0e96) [size=50 GB][features="0"][hwhandler="0"] \_ round-robin 0 [enabled] \_ 0:0:1:2 sdf 8:80 [failed][faulty] \_ 0:0:2:2 sdk 8:160 [failed][faulty] \_ 1:0:0:2 sdp 8:240 [failed][faulty] \_ 1:0:2:2 sdx 65:112 [failed][faulty] pvdisplay命令: /dev/dm-9: read failed after 0 of 4096 at 53687025664: Input/output error /dev/dm-9: read failed after 0 of 4096 […]

为什么我的Ubuntu 12.04 Preseed文件不能与LVM一起使用

这是我的预置文件: di partman-auto/disk string /dev/sda di partman-auto/method string lvm di partman-lvm/device_remove_lvm boolean true di partman-lvm/device_remove_lvm_span boolean true di partman-auto/purge_lvm_from_device boolean true di partman-auto-lvm/guided_size string max di partman-md/device_remove_md boolean true di partman-auto-lvm/new_vg_name string vg0 di partman/alignment select cylinder di partman-auto/choose_recipe select boot-root di partman-auto/expert_recipe string \ boot-root :: \ 256 8000 256 ext2 \ $primary{ } […]

需要帮助恢复RAID 6arrays

我的CentOS 6.5服务器有一天其主驱动器失败。 我们的托pipe公司更换了主驱动器并重新安装了操作系统。 系统正常运行,但RAID6存储的15TB未安装。 我需要帮助搞清楚如何让它挂载。 我的回忆是95%的确定,我使用XFS格式化这个数组,因为我有一些问题得到EXT4的工作。 驱动器configuration: 托架0包含启动SSD(100GB) 托架1-7包含3GB HD,形成RAID6arrays RAID控制器是LSI MegaRAID SAS 9260-8i 在重新安装之前,最后的安assembly置是: Filesystem Size Used Avail Use% Mounted on /dev/mapper/VolGroup-lv_root 50G 12G 36G 24% / /dev/sdb1 485M 164M 296M 36% /boot /dev/mapper/VolGroup-lv_home 53G 845M 49G 2% /home /dev/sda1 14T 4.9T 8.0T 38% /home/gflftp/gflcontent 我的回忆是,两个VolGroup安装在旧的SSD上,然后我把RAIDarrays放在/ dev / sda1到子目录/ home / gflftp / gflcontent […]

将旧的Xenserver的多个磁盘LVM附加到新的Xenserver

希望你可以帮助我这个…我们有一个XenServer 6与4 320千兆磁盘作为一个LVM卷组。 突然从星期五过去一个磁盘失败,我们无法启动服务器。 我试图使用sysresccd访问逻辑卷,但没有成功,即使尝试与kpartx但没有。 看起来只有2个lvs被损坏,剩下的都没问题了LV状态可用因此,我们添加了一个新的磁盘,并使用此处显示的过程安装了xenserver 6 如何重新安装XenServer主机并在本地存储上保留虚拟机 已经用xe sr介绍了新的SR,成功的介绍了,但是当试图创buildPBD时,我只能创build一个SR,但是回放是由4个磁盘组成的,所以我不知道如何添加PBD,或者做什么下一个。 任何帮助将被认可,谢谢

软件RAID上LVM上的Linux服务器操作系统:最佳实践和注意事项

我正在准备一个最小的Ubuntu Server 12.04 LTS,它将简单地运行libvirt / KVM来托pipe一些Ubuntu Server 12.04 LTS来宾。 在我的KVM主机上,我创build了一个由两个物理磁盘组成的RAID 1。 有了最终的卷,我使用LVM为根文件系统,交换和/ var创build了一个可分区的空间(因为这是我的KVM客人的生活场所)。 将启动卷安装在驻留在软件RAID上的LVM卷上是否可取? 什么是最佳实践? 在软件RAID上configurationLVM时应该考虑什么?

LVM上的ext4_orphan_cleanup错误

我正在使用Debian 7.2在RAID 1上运行带有两个LVM驱动器的服务器,并且在我的系统日志中不断收到这些消息。 我应该担心吗? 这是一个错误? 它可以删除什么? Feb 23 23:00:05 ltsp kernel: [312745.708283] EXT4-fs (dm-2): orphan cleanup on readonly fs Feb 23 23:00:05 ltsp kernel: [312745.708795] EXT4-fs (dm-2): ext4_orphan_cleanup: deleting unreferenced inode 785414 Feb 23 23:00:05 ltsp kernel: [312745.709705] EXT4-fs (dm-2): ext4_orphan_cleanup: deleting unreferenced inode 261919 Feb 23 23:00:05 ltsp kernel: [312745.714217] EXT4-fs (dm-2): ext4_orphan_cleanup: deleting […]