当我用LVM2创buildRAID10时遇到了一个错误。 我有四个PV,当我用这个命令创buildLV时: sudo lvcreate –mirrors 1 –stripes 2 -l7630 -n lv0 vg0 –corelog 显示的VG,它应该是空的,但它有一半.. VG Name vg0 System ID Format lvm2 Metadata Areas 4 Metadata Sequence No 3 VG Access read/write VG Status resizable MAX LV 0 Cur LV 1 Open LV 0 Max PV 0 Cur PV 4 Act PV 4 VG Size 475.94 […]
我从LVM开始,我想知道当我创build一个具有不同磁盘的LVM并且其中一个具有数据时,当我创build虚拟卷时,会使我将所有存储的数据都丢失。 如果有办法不输,我该怎么办? 谢谢
我有一个运行Ubuntu的虚拟机。 它曾经有30GB的空间; 我需要将数据分区(一个LVM2)的大小增加到50GB。 我改变了VM的pipe理控制台的大小,这就是fdisk -l告诉我的: Disk /dev/sda: 53.7 GB, 53687091200 bytes <— new size […] Device Boot Start End Blocks Id System /dev/sda1 * 1 32 248832 83 Linux Partition 1 does not end on cylinder boundary. /dev/sda2 32 6528 52177921 5 Extended <— huh?!? /dev/sda5 32 3917 31205376 8e Linux LVM <— old size […]
我的硬盘目前有(我相信)2分区; 启动(sda1)和其他一切(sda2?)。 一些硬盘也被用作交换内存,但是我并不真正理解这种效果如何。 服务器是物理的,我有一个LiveCD。 如何将新分区(1 MB,ext3)添加到硬盘,并使sda2更小以容纳新分区? 任何关于lvm,/ dev / mapper,dm-0和dm-1如何应用的附加评论都将会被赞赏,但不是必需的。 谢谢 [root@desktop ~]# mount /dev/mapper/vg_desktop-lv_root on / type ext4 (rw) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) devpts on /dev/pts type devpts (rw,gid=5,mode=620) tmpfs on /dev/shm type tmpfs (rw,rootcontext="system_u:object_r:tmpfs_t:s0") /dev/sda1 on /boot type ext4 (rw) none on /proc/sys/fs/binfmt_misc type binfmt_misc […]
在configuration一个小型企业服务器(CentOS 6.4)时,我怀疑是否有关于LVMpipe理的问题,希望能帮助我澄清一下。 机器具有以下存储设置: 3个146GB的SAS,其中2个必须是raid1(软件raid,导致md0),其余的驱动器将托pipe正在运行的系统。 使用LVM,我想有一个VG(例如VG00),它可以使用两个PV:sda0(非RAID驱动器)和md0。 假设我在VG00下创build了一个新的LV,有没有办法决定哪个PV必须用于特定的LV? 简而言之,我怎么才能让新的LV只写入raid1-PV(md0)而不是sda0(系统驱动器)? 例: LVhome安装点/ home – 在md0上 LVtmp与挂载点/ tmp – 在sda0上 带有挂载点的LVvar / var – 在sda0上 我相信默认情况下,LVM将在sda0和md0中使用striping,对吗? 感谢任何能借我一把手的人! 马修
我有一个亚马逊线AMI与两个驱动器,一个为根和一个数据, 8G / 1024G /data 数据分区几乎满了93%/数据,我想在不擦除磁盘的情况下扩展数据分区。 是否可以更改非LVM分区上的现有文件系统,并将其转换为LVM逻辑卷,而不必擦除磁盘?
我有一个包含3个PV(物理卷)的VG(卷组)。 其中一个PV中出现了一些物理故障(可能是?)。 在试图单独安装每个PV时,它给出mount: unknown filesystem type 'LVM2_member'错误。 我需要检查哪个PV失败。 任何方式来做到这一点? 有什么办法可以单独安装PV来检查有故障的或者是否有其他解决scheme/解决办法来解决我的问题? 谢谢!
我将LVM的vg作为用户/主目录的存储空间。 但现在我需要添加一个新的2T大小的磁盘来扩展/ home空间。 我想知道是否需要分区,然后使用这些分区作为物理卷。 我更愿意将整个磁盘用作/ home的现有vg组的物理卷成员。 无论如何,我知道多分区将在一个分区内造成灾难。 顺便说一下,我不得不提及/ home空间存在,并且我添加的2T空间在LSI raid raid-1镜像磁盘上。 我知道这个决定实际上取决于磁盘的质量,RAID安排和经验。 我只希望有经验的工程师能够回顾这个案例,看看其他工程师是如何为这个案例做的。 干杯!
我想迁移一个运行RHEL 6.5的IDE使用的基于LVM的KVM客户机。 我在这个页面find了这个步骤: 1)运行virsh编辑。 从那里,编辑configuration文件并调整所有行 <target dev='hda' bus='ide'/> 所以他们看起来像这样 <target dev='vda' bus='virtio'/> 此外,删除所有<address type …/>行,以便libvirt可以适当地重新生成它们。 2)在guest虚拟机中,编辑/ etc / fstab并用/ dev / vdX`replace所有出现的/ dev / sdX。 3)就是这样,现在closures机器,并启动virsh启动(只是在启动的虚拟机内重新启动将无法正常工作)。 很酷,看起来很简单,但是并没有涵盖LVM的情况。 我的/ etc / fstab和/etc/grub.conf都没有find任何可以改变的/ dev / sdXpath(除了在grub.conf文件中有一个注释外)。 我应该做什么更多的lvms? 显示给VM的磁盘是来自多path均衡SAN的原始LUN。 [root@testphys ~]# virsh domblklist aplitest Target Source ———————————————— hda /dev/eql/vol-so-aplitest hdc – VMconfiguration文件(用磁盘configuration提取) <disk type='block' device='disk'> <driver name='qemu' type='raw' […]
我有两个节点,每个有20个HDD(相同的大小)。 两个节点都configuration了2个VG,每个VG都是使用10个磁盘创build的。 1个VG被称为SAN第二个被称为NAS。 Node1-将提供nfs服务,nfs数据将保存在NAS vg上,名为nfs的LV(在node2上看起来相同)。 VG SAN将成为节点2上的SAN VG的备份。 Node2-将提供SAN服务,数据将保留在LV上。 每个lv代表一个lun和使用targetcli,我从每个lv创build块设备。 所以根据一个lun的请求,我创build一个具有所需大小的LV,并使用这个新创build的LV在targetcli中创build一个backstore(blockdevice)。 VG NAS也存在于节点2上,用于备份来自节点1的NAS VG的数据。 备份的数据不应该有问题:我想过使用drbd将数据从每个节点备份到另一个节点,所以最终每个节点1将备份节点2,反之亦然。 有了NAS VG,我可以,因为它只有一个LV,它是静态的。 问题是,在我不断创buildLV的SAN VG上会发生什么? 将drbd创build他们在另一边以及备份的结果? 如果没有,那么我怎样才能始终保持这些VG相同,即当我在节点2上创build一个LV时,它将自动在节点1上创build? 顺便说一句 – 两个节点上的操作系统是centos7.1 非常感谢您的帮助!