我想知道以下两种情况的优点和缺点。 直接在SAN卷上的LVM物理卷 pvcreate /dev/sda 跨越整个SAN卷的单个分区上的LVM物理卷 parted /dev/sda -s — mklabel gpt mkpart primary 0 -1 pvcreate /dev/sda1 我在LVM手册中看过,由于其他不懂LVM标签的操作系统存在pipe理问题,所以不build议在整个磁盘上使用PV。 但是我不确定这是否真的适用于SAN卷。 此外,我认为分区添加了可能的问题的另一层,如分区设备上的映射设备的设备名称更改。 什么是更好的做法?
在VMWare ESXi 4.1虚拟机上,我将虚拟高清的大小从79GB提高到了100GB http://screencast.com/t/j6Y2SmLES3P7 之后,我已经重新启动虚拟机,但是当我去虚拟机 [root@linxuph53]# vgdisplay — Volume group — VG Name vg_linuxph53 System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 4 VG Access read/write VG Status resizable MAX LV 0 Cur LV 3 Open LV 3 Max PV 0 Cur PV 1 Act PV 1 VG Size 79.50 GiB PE Size […]
所以我正在研究LVM快照,这似乎是备份mysql的一种可行的方法,至less它是一致的。 我的问题是,我有mysql服务器的数据目录在一个SAN上,我想利用arrays快照function的MySQL LUN。 我在想,我可以添加第二个LUN,在其上创build一个PV,将它添加到服务器上的VG,创build一个LV,它将成为MySQL LV的一个快照,然后安装它。 在这一点上,我可以将数据复制到任何我需要复制的地方。 这部分是好的,但需要时间来做,并根据数据库的大小,因为我不得不实际复制数据。 一旦创build了快照,我可以拍摄mysql LUN的arrays快照,然后释放LVM快照并将其删除? 有没有人试过这个? 我的理解是,在LVM快照之后所做的更改存储在快照LV中。 它是否正确? 谢谢!
我运行的是基于KVM的客户系统,运行相同的操作系统的Debian Wheezy Beta 4。 我正在使用LibVirt来pipe理虚拟化。 我想要做的是通过Virtio将基于LVM的块设备连接到正在运行的访客系统。 如果我通过virsh edit [MACHINE]来configuration它,它将如下所示: <disk type='block' device='disk'> <driver name='qemu' type='raw' cache='none' io='native'/> <source dev='/dev/volume_group/logical_volume'/> <target dev='vdb' bus='virtio'/> </disk> 我试图找出如何用virsh attach-disk来做到这一点。 到目前为止,我认为以下几点: virsh attach-disk guest /dev/volume_group/logical_volume vdb –driver qemu –type raw –cache none –persistent 我怎样才能指定目标的bus和司机的io领域? 我真的需要这些选项完全符合XML中的规定。
我试图从一个Ubuntu 12.10服务器迁移到一个新的Ubuntu 12.10服务器(升级)卷组。 我现有的VG分布在3个物理驱动器上,在VG内是2个逻辑卷。 我想将三个驱动器和整个VG移动到新机器上,我按照以下步骤操作:(自然地,sudo是隐含的,而且是通过ssh执行的)1.卸载两个LV–没有遇到任何问题这一步2.我使用“vgchange -an fileserver”将VG设置为非活动状态 – 获得响应:卷组“fileserver”中的0个逻辑卷现在处于活动状态3.input:vgexport fileserver – 我得到响应:卷组“fileserver”具有活动的逻辑卷 如果我运行lvscan它显示所有我的LV作为ACTIVE这显然不是我想要的。 据我所知,我使用vgchange命令将我的VG中的所有LV设置为INACTIVE,即使cli告诉我在执行此操作后,我的VG中有0个逻辑卷处于活动状态,但在下一行运行lvscan会告诉我他们确实活跃,因此我无法出口。 外面的任何人都可以点亮吗?
我目前正在host1上运行rsnapshot ,使用内置的SFTP支持(我每天,每周和每月在标准的rsnapshotconfiguration中运行备份)备份来自host2的一些文件。 两台主机都运行Ubuntu并使用LVM。 是否有任何直接的方法可以在备份运行开始之前在host2上创build和装载LVM快照,并在之后删除它们以增加备份的文件集的一致性? 看起来更新版本的rsnapshot使用linux_lvm_*命令内置了LVM支持,但似乎只有在从同一主机进行备份时才起作用,而我并不这么做。 理想的机制应该是相当失败的,即: 备份完成后, 主机2上的LVM快照应该被删除,无论是否成功。 如果无法创build快照,则备份不会继续。
在RedHat 6服务器上,我们遇到了在线调整ext4文件系统的问题。 在只有/ dev / sda的情况下,我们在卷组中有13GB,但在一个36GB的逻辑卷上需要20GB以上的空间。 将/ dev / sdb添加到卷组,并将文件系统扩展(lvextend)并将其大小调整为(resize2fs)为56GB。 在resize期间没有错误消息,操作系统报告了新的大小。 有问题的逻辑卷承载IBM HTTP Server(apache 2.2)的安装,用于一些8个不同的Web服务器的configuration和日志文件。 今天早上文件系统使用增长超过36GB。 首先发生的事情是,Web服务器停止日志logging(发现后),而Web服务器保持运行没有问题。 2.5个小时后,关于日志轮换和其他写入文件系统的事情开始冻结。 含义:networking服务器停止了stream量,所有进程都停留了,试图“挂掉”一个日志文件将挂起,并且不能被中断。 服务器的负载从0.10到4000(是的…) – 主要与iowait有关(看起来)。 解决办法是closuresnetworking服务器 – kill -9是唯一的方法,并重新启动服务器。 卸载文件系统,做了一个fsck(没有错误),然后重新开始。 没有问题,因为。 当磁盘(lv)的使用增长到36GB以前,我们可以用logging停止的时间来精确地计时错误。 其他文件系统上的服务似乎运行良好,其中包括操作系统。 在我们看到的/ var / log / messages中,即: kernel: INFO: task httpd:<pid> blocked for more than 120 seconds. kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message. kernel: […]
问题(S): 将LVM VolumeGroup / Volume标识符(例如system/var )转换为设备名称(例如/dev/mapper/system-var或/dev/system/var ),反之亦然? 使用/dev/VolumeGroup/Volume还是有安全/dev/VolumeGroup/Volume (如在/dev/mapper/VolumeGroup-Volume表单中,特殊处理破折号)? 使用/dev/mapper/VolumeGroup-Volume和/dev/VolumeGroup/Volume什么本质区别? Pro / Con为每个表单? 背景: 我想自动创buildLVM快照以备用途。 configuration应该只包含文件系统中的源path(对于这个例子/var )。 parsing/etc/mtab产生装载在该path上的设备: # grep /var /etc/mtab /dev/mapper/system-var /var ext4 rw 0 0 现在我可以使用lvs来查找VolumeGroup和Volume: # lvs –noheadings /dev/mapper/system-var var system -wi-ao 18,62g 创build快照: # lvcreate -s -n var-snapshot -pr -l10%ORIGIN system/var 现在我需要设备名称来装载快照。
我把Vsphere客户端的规定大小增加到32GB,我用gparted把VG调整到了32GB — Physical volume — PV Name /dev/sda2 VG Name vg_proxy PV Size 31.51 GiB / not usable 2.00 MiB Allocatable yes PE Size 4.00 MiB Total PE 8066 Free PE 3072 Allocated PE 4994 但我不确定如何调整LV的大小,而不是丢失数据。 — Logical volume — LV Path /dev/vg_proxy/lv_root LV Name lv_root VG Name vg_proxy LV UUID h9c0HO-xRQn-jX6q-4GGi-0nkt-2rnt-DNy3gR LV Write Access […]
我有一个安装了Areca RAID控制器的SuperMicro盒子。 RAID控制器configuration为RAID 6 +热备份。 我正在尝试安装Ubuntu 12.04 LTS。 我为/,/ var,swap和/ data设置了独立分区的LVM。 在安装程序进行时,我在Grub安装步骤中反复失败:“Unable to install grub / dev / sda” – 尝试手动指定安装Grub的位置(推测是/ dev / mapper / vg0-root)产生类似的结果。 LVMconfiguration: 触发失败的安装步骤: 错误: