我有一个文件系统的LV。 这个文件系统背后的LUN已经在SAN上成长了,PV,VG和LV也一样。 但块设备似乎不匹配,所以我的resize2fs失败。 我从来没有见过这个,什么给了? 我正在使用Oracle Linux 6.5 # rpm -qa | egrep 'mdadm|lvm' mdadm-3.2.5-4.el6_4.3.x86_64 lvm2-2.02.98-9.el6_4.3.x86_64 lvm2-libs-2.02.98-9.el6_4.3.x86_64 旧尺寸是30G。 新的尺寸是45G # pvs PV VG Fmt Attr PSize PFree /dev/md0 vg_app lvm2 a– 45.00g 0 # vgs VG #PV #LV #SN Attr VSize VFree vg_app 1 1 0 wz–n- 45.00g 0 # lvs LV VG Attr LSize Pool […]
总之,我想创build一个系统恢复图像。 我对AUFS的想法如下图所示 现在,因为我在启动时需要这个安装设置,所以我不认为我可以用保险丝来完成,并且需要AUFS内核支持,而CentOS 6.x没有这个支持。 所以我开始考虑采用LVM快照的另一种方法。 我想到的设置就像下面的图像 不过,我对这个设置有几个问题。 LVM或设备映射器是否可以使用这种设置? 如果是的话,该怎么办? 与LVM,是否保证在只读快照的物理卷写保护? 提前致谢。
我需要从LVM分区的1TB磁盘克隆一个CentOS安装到几个相同的机器上。 由于只安装和configuration了操作系统和一些软件,所以磁盘大部分是空的。 没有LVM我会复制整个分区表,然后我会使用partclone逐个克隆分区: sfdisk -d /dev/sda | sed -e 's/sda/sdb/' | sfdisk /dev/sdb partclone.ext4 -c -s /dev/sda# -o – | partclone.ext4 -r -s – -o /dev/sdb# 但是我认为它不适用于LVM。 当然我可以用dd来克隆整个磁盘: dd if=/dev/sda of=/dev/sdb 但是和分体相比,花费的时间太多了。 有没有办法更快地克隆LVM分区? 我认为一个可能的解决scheme是使用dd将LVM分区克隆到另一个磁盘中的常规分区,然后使用partclone将新磁盘克隆到其他计算机。 但是我不知道这样的事是否会起作用: dd if=/dev/mapper/vg_node07-lv_root of=/dev/sdb1 它可以工作吗? 你能告诉我其他解决scheme吗?
我直接用LVM设置RAID6是犯了错误。 为了更好的灵活性,我需要切换到通过MDRAIDpipe理RAID。 有没有一种方法可以减lessarrays的大小(释放磁盘)。 或者,我可以从arrays中删除一个磁盘,使数组处于降级状态? 然后,我将在MDRAID中创build一个数组,迁移数据,然后迁移其余的磁盘。 这是一个Ubuntu 14.04虚拟机。
我有一个使用/ dev / vg1 / root作为/ mount的服务器。 我正在尝试设置DRBD,以便将ServerA的vg1-root镜像到ServerB上的另一个LVM卷vg1-ServerA-root。 我能够在ServerA的vg1-root上创build元数据,但无法附加资源。 ian@ServerA:/etc/drbd.d$ sudo drbdadm attach all open(/dev/vg1/root) failed: Device or resource busy Operation canceled. Command 'drbdmeta 0 v08 /dev/vg1/root internal apply-al' terminated with exit code 20
我正在研究使用起搏器和corosync的HA集群。 红帽文档将LVM,HA-LVM和CLVM作为单独的主题。 我理解CLVM在HA-LVM上增加的function和优点。 我不确定的是HA-LVM和普通的LVM相比是什么? 这只是你如何使用它的一个麻烦? 如果从每个节点上的lvm.conf的volume_list中排除共享卷组以阻止本地系统激活它,然后使用pacemaker资源来pipe理共享卷组的激活和停用,那么会使HA-LVM 。 或者是否有实际上构成HA-LVM的不同代码。 当使用clvm时,实际安装额外的软件包来提供clvmd和dlm。 使用HA-LVM,您似乎没有任何额外的软件包或指令可以声称您希望使用HA-LVM模式。 但是文档对待它的方式和使用的术语我有点困惑。
我们有一个Citrix Xenserver 6.2安装。 今天我们遇到了一个事件,服务器的电源突然从服务器上断开。 它已经运行了一段时间没有问题。 它在硬件RAID5中有相当大的容量。 我们正在启动的消息是 Scanning and configuring dmraid supported devices Creating root device. Mounting root filesystem. Mount: could not find filesystem '/dev/root' Setting up other filesystems. Setting up new root fs setuproot: moving /dev failed: No such file or directory no fstab.sys, mounting internal defaults setuproot: error mounting /proc: No such file […]
我需要在硬件RAID-6(10x 6TB + 2奇偶校验)的基础上,在LVM之上build立一个XFS文件系统,我在http://xfs.org/index.php/XFS_FAQ(“How to计算正确的sunit,最佳性能的swidth值“),build议: 当在硬件raid之上的LVM之上创buildXFS文件系统时,请使用sunit / swith值,直接在硬件raid之上创buildXFS文件系统。 我知道sunit的值是在创buildRAID卷时定义的条带大小, swidth是数据磁盘的数量(例如上例中的10)。 如果我想创build12 TB和30 TB的逻辑卷,我仍然会使用swidth = 10为两个XFS文件系统,或者我会使用swidth = 2和swidth = 5与2和5数据磁盘一致(math)编写这些逻辑卷?
所以,我有磁盘故障,并将LV从故障磁盘移动到新的PV。 一些LV成功移动,有些则不成功。 之后,我以下列状态结束: – 两个locking的LV – 缺lessPV的卷组 当我尝试删除PV时,我得到: vgreduce –removemissing –force vg3 Couldn't find device with uuid RQr0HS-17ts-1k6Y-Xnex-IZwi-Y2kM-vCc5mP. Removing partial LV var. Can't remove locked LV var lvremove -fff vg3/var Couldn't find device with uuid RQr0HS-17ts-1k6Y-Xnex-IZwi-Y2kM-vCc5mP. Can't remove locked LV var pvmove –abort Couldn't find device with uuid RQr0HS-17ts-1k6Y-Xnex-IZwi-Y2kM-vCc5mP. Cannot change VG vg3 while PVs […]
我正在重build我的小文件服务器(运行CentOS 7的Athlon 5350 + 4GB ddr3),用WD Redreplace几个二手硬盘驱动器。 该服务器主要用于个人文件(文件,图片),媒体文件(音乐和video)和其他软件(VM镜像,ISO,安装等)。 我想镜像个人文件,并dynamic扩大arrays添加新的驱动器或resizing分区例如:给定2 TB硬盘我想要2个镜像500GB分区和2 1,5TB剥离/ JBOD分区的其他文件有机会添加2 / 4TB未来的HDS。 为了达到这一点,性能方面更好的解决scheme(ZFS应该是内存饿了),可靠性和更容易使用? 我还读到BTRFS是否比ZFS有一些优势? 另一个问题是:当我在LVM组中丢失了一个硬盘时,所有的数据都丢失了,这与ZFS是一样的,还是有可能在不同的分区上分割整个文件,并且至less恢复一部分数据? 谢谢!