我有一个设置,其中由FibreChannel连接的一个SAN存储可由两个主机(在块级别)访问。 我想在存储上创build两个lvm2物理卷: pv1和pv2 ,现在分别是两个卷组的唯一成员: vg1和vg2 。 我的主机应该独占使用它们,并且“不要碰其他”。 由于两台主机都可以看到SAN,所以两者都可以看到lvm结构。 (我testing过:在一台主机上创build逻辑卷,结果是在/ dev / mapper下可见)。 我想确保host1只会修改vg1而host2只会修改vg2来防止数据损坏。 是否保证当我没有明确执行任何lvm命令时,lvm守护进程和内核不会重新洗牌区段/优化属于另一个主机的卷组,从而破坏它?
我试图用gparted来缩小Ubuntu 16.04的扩展分区。 gparted和vgdisplay都显示分区已被完全使用。 所以我不能缩小分区。 df表示使用了5%(正确的值)。 这是GParted的截图。 这里是相关的命令行输出: $ sudo vgdisplay — Volume group — VG Name ubuntu-vg System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 3 VG Access read/write VG Status resizable MAX LV 0 Cur LV 2 Open LV 2 Max PV 0 Cur PV 1 Act PV 1 VG Size 465.28 […]
我的服务器LVM组报告完整的磁盘使用情况。 [root@CH3CSSD01-0539 ~]# pvdisplay -m — Physical volume — PV Name /dev/sdy2 VG Name centos PV Size 464.24 GiB / not usable 2.00 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 118845 Free PE 0 Allocated PE 118845 PV UUID uV9hb7-eD2V-q6rB-KqP7-OJu2-J50e-LrETpH — Physical Segments — Physical extent 0 to 1023: Logical volume […]
在性能和稳定性方面是不是一个好主意? 我有4个相同大小的磁盘,我想使用btrfs来安装rootfs(opensuse),但是我需要交换和虚拟机存储。因此,我需要使用支持原始的文件系统,并且我认为lvm是最好的select.. 在这一点上,是否有可能结合lvm和btrfs? 接下来,将btrfs raid和lvm raid结合起来是个好主意,还是使用mdadm raid更好? 谢谢
任何人都知道为什么我看到多个设备为同一个LUN?我检查了存储组他们只暴露了360000970000196801239533036304532这台服务器,但为什么我看到这些很多分区(p1..p7) lrwxrwxrwx 1 root root 8 Jan 20 16:30 360000970000196801239533036304532 -> ../dm-39 lrwxrwxrwx 1 root root 8 Jan 20 16:30 360000970000196801239533036304532p1 -> ../dm-64 lrwxrwxrwx 1 root root 8 Jan 20 16:30 360000970000196801239533036304532p2 -> ../dm-65 lrwxrwxrwx 1 root root 8 Jan 20 16:30 360000970000196801239533036304532p3 -> ../dm-66 lrwxrwxrwx 1 root root 8 Jan 20 16:30 360000970000196801239533036304532p4 -> […]
我正在创build一个创buildLVM快照的备份脚本。 在创build快照之后,它将通过lz4进行压缩,之后脚本应该将快照从VG中删除。 由于缺less特权而删除快照失败。 我宁愿避免以root身份运行此脚本。 有没有其他的可能性让脚本创build并删除快照?
在设置RAID和LVM方面我相当“绿色”,但是我无法弄清楚为什么这个设置不能按预期工作。 我有一个服务器与两个物理硬盘,我想在软件RAID中设置的东西,使任何驱动器可能会失败,机器保持function。 +——+————+ | swap | / (root) | | 5 GB | 113.5 ext4 | +———–+——————-+ | /boot | LVM | | 1 GB ext4 | 118.5 GB | +———————-+———–+——————-+ | EFI system partition | RAID 1 | RAID 1 | | 500 MB | 1 GB | 118.5 GB | +———————-+———–+——————-+ | HDD […]
Targetcliconfiguration在服务器重新启动后丢失了,我试图从备份文件中恢复configuration,使用targetcli restoreconfig <backupFile>configuration未恢复命令storageobjects or targets present, not restoring输出消息storageobjects or targets present, not restoring 。 下面是targetcli ls和systemctl status -l target targetcli ls o- / …………………………………………………………………………………… […] o- backstores …………………………………………………………………………. […] | o- block ………………………………………………………………. [Storage Objects: 0] | o- fileio ……………………………………………………………… [Storage Objects: 0] | o- pscsi ………………………………………………………………. [Storage Objects: 0] | o- ramdisk …………………………………………………………….. [Storage […]
起初这是我的硬盘: / dev / sda1为bios_grub 100MB / dev / sda2 / 500MB作为/ boot / dev / sda3 800MB作为LVM2 myvg卷组的物理卷。 我用parted删除sda1和sda2。 之后,重新启动/ sda1(600MB)为/ boot。 然后使用gdisk更新编号/ dev / sda。 所以现在/ dev / sda3变成了/ dev / sda2。 问题是,当我运行pvs我仍然把/dev/sda3作为myvg物理文件。 如何在保持myvg的数据完整的情况下更新这个?
如何从卷组“centos”将100%的可用空间添加到根逻辑卷? 我使用什么工具来调整根逻辑卷的大小。 以下是在这个问题之前执行的步骤。 root@server1 ~]# vgs VG #PV #LV #SN Attr Vsize Vfree centos 1 2 0 wz–n- 6.98g 0 root@server1 ~]# pvcreate /dev/sdb Physical volume "/dev/sdb" successfully created root@server1 ~]# vgextend centos /dev/sdb Volume group "centos" successfully created root@server1 ~]# vgs VG #PV #LV #SN Attr Vsize Vfree centos 2 2 0 wz–n- 7.46g […]