Articles of lvm

使用RAID和LVM更改磁盘分区

TL; DR:如何在线组合RAID + LVM分区(不接触rootfs)? 我有一个服务器,用于以前的东西,并有一定的分区结构创build。 df -h显示 Filesystem Size Used Avail Use% Mounted on /dev/mapper/raid1-rootfs 50G 28G 20G 59% / tmpfs 16G 0 16G 0% /lib/init/rw udev 16G 152K 16G 1% /dev tmpfs 16G 624K 16G 1% /dev/shm /dev/md0 460M 29M 408M 7% /boot /dev/mapper/raid1-data 99G 20G 74G 22% /data /dev/mapper/raid1-mysql 99G 4.6G 89G 5% […]

卷组使用整个磁盘而不是分区 – 扩展在线Vmware

是否有可能在使用整个磁盘进行卷组扩展vmware控制台分配的磁盘空间,然后在重新扫描主机后重新联机卷组以知道新的大小,或强制它知道新的大小。 例如,我有一个磁盘200GB,我已经用来创buildvgcreate整个磁盘,而不是分区,如果我在vmware控制台中将磁盘大小调整为250GB,并强制重新扫描guest虚拟机操作系统(Linux)中的scsi_device,将会更新卷组有没有办法让它发生? 目前我正在创build一个最大的分区,并在扩展相同的磁盘的情况下,我创build一个新的分区,并使用vgextend使其可用。 我有点新的LVM,所以我将不胜感激一个可能的解决方法。 这需要在不卸载任何分区或磁盘的情况下完成 完全在飞行中!

用LVM低速写入kvm guest虚拟机的磁盘速度

我的Windows 2008 R2 KVM guest虚拟机有问题。 它向磁盘写入速度极慢: 但是在这台KVM主机上的另一台虚拟机(Windows 10)上,写入速度没问题: # cat /etc/system-release CentOS Linux release 7.1.1503 (Core) # virsh -V Virsh command line tool of libvirt 1.2.8 See web site at http://libvirt.org/ Compiled with support for: Hypervisors: QEMU/KVM LXC ESX Test Networking: Remote Network Bridging Interface netcf Nwfilter VirtualPort Storage: Dir Disk Filesystem SCSI Multipath iSCSI […]

复制centos 6修改mdadm raid 1并克隆到新的mdadm raid 1 ssd

我有:Centos 6.7 grub-install -v grub-install(GNU GRUB 0.97) lsblk 两个新的SSD 128GB Liveed usb Parted_Magic_2015.03.06 /boot/grub/device.map中 # this device map was generated by anaconda (hd0) /dev/sda (hd1) /dev/sdb /boot/grub/grub.conf文件 default=1 timeout=5 splashimage=(hd0,2)/grub/splash.xpm.gz hiddenmenu title CentOS (4.1.10-1.el6.elrepo.x86_64) root (hd0,2) kernel /vmlinuz-4.1.10-1.el6.elrepo.x86_64 ro root=/dev/mapper/VolGroup-LogVol02 LANG=uk_UA.UTF-8 rd_NO_LUKS KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=VolGroup/LogVol02 SYSFONT=latarcyrheb-sun16 rhgb crashkernel=128M quiet rd_MD_UUID=88b7c4d8:48557d19:3018c405:b427edf6 rd_LVM_LV=VolGroup/LogVol00 rd_NO_DM initrd /initramfs-4.1.10-1.el6.elrepo.x86_64.img 我想要: […]

VMWare的Ubuntu 14.04不读ram

我有一个虚拟机运行Ubuntu 14.04 LTS。 一切工作正常。 我给它分配了更多内存,但VSphere现在说它现在没有这个内存。 Vmware说这个内存是每秒不能访问的图片。 我怎样才能确保这个CPU使用所有的内存分配? 图片1 图片-2 这是你从$free -m得到的 total used free shared buffers cached Mem: 20080 5311 14768 1 188 3659 -/+ buffers/cache: 1463 18617 Swap: 8187 0 8187

相同的libvirtconfiguration,一台机器启动,另一台没有

我正在从一台旧机器迁移一堆vms到一个新机器。 旧版本使用一些内部脚本和lvm逻辑卷,新版本使用libvirt和纯文件。 configuration是相当统一的,但一些虚拟机在新机器上完美运行,而我却无法让其他人工作。 症状是加载初始ramdisk后,我看到bios声明“从硬盘启动”的屏幕。 老机器中的好vm: /usr/bin/qemu-system-x86_64 -enable-kvm -cpu host -name airesisdb -smp 1 -m 1024 -vnc 127.0.0.1:10 -monitor telnet:127.0.0.1:10010,server,nowait -daemonize -localtime -usb -usbdevice tablet -net tap,ifname=vm-airesisdb,script=no -net nic,macaddr=02:13:37:00:00:10,model=virtio -rtc base=utc,clock=host,driftfix=slew -pidfile /var/run/kvm/airesisdb.pid -boot c -drive index=0,media=disk,if=virtio,boot=on,file=/dev/vg/airesisdb,cache=writeback -drive index=1,media=disk,if=virtio,file=/dev/vg/airesisdb_2,cache=writeback 旧机器上的“bad vm”(完美运行): /usr/bin/qemu-system-x86_64 -enable-kvm -cpu host -name tomcat -smp 1 -m 1024 -vnc 127.0.0.1:12 -monitor telnet:127.0.0.1:10012,server,nowait -daemonize […]

扩展LVM卷的限制?

我有一个CentOS 7服务器。 我已经像这样几次延长LV了: fdisk /dev/sdd pvcreate /dev/sdd1 vgextend pg_data /dev/sdd1 lvextend /dev/pg_data/lvol0 /dev/sdd1 xfs_growfs /dev/pg_data/lvol0 我的问题是,用这种方法扩展逻辑卷可以多less次?

在这种情况下如何设置LVM?

http://prntscr.com/bhyu4k 我有一个看起来像这样的设置,我需要在/ home文件夹下有sda3和sdb,都是一样的。 我不在乎目前的/ home目录的内容,所有的东西都可以被删除。 1) LVM work has never been done on this system. sda, sda1, sda2, (sda3), sda4 can be left as is before going to the further steps? They are set up the standard way. 2) There is no need to partition the sda3 as 8e (the LVM type)? 3) Do not […]

使用LVM将NAS迁移到硬件RAID1而不会丢失数据

我试图找出如何将RAID 1添加到我的CentOS NAS服务器。 今天我在非RAIDconfiguration中有2x3TB磁盘。 我正在使用LVMpipe理一些逻辑卷来分区我的数据。 我没有使用接近完整的6TB容量,但我希望在未来的空间扩大。 我也经常使用CrashPlan进行异地备份,但是我想确保磁盘故障并不意味着要恢复数据的宕机时间。 所以我的计划是再购买2个3TB磁盘来设置RAID 1.我想把它做成新的磁盘并与旧的磁盘配对,因为旧的磁盘现在已经过了两三年,而且更有可能失败。 今天,我使用了大约1.6TB的6TB容量,所以我想我可以做一些移动,并尽量减less丢失数据的风险。 任何人都可以指向我的指导或帮助确保这些步骤将工作? 我知道有些事情会出错的风险,所以我会备份可用,但我想确保这些步骤应该以低风险工作,以节省自己一些时间。 首先,我将把6TB LVM VG整合到一个PV。 因此,如果/ dev / sdb1和/ dev / sdc1是我的旧驱动器,我会缩小一些LV的(resize2fs,lvresize),将所有内容移到sdb1(pvmove),并从VG(vgreduce)中移除sdc1。 接下来,我将添加一个新驱动器,并在sdc1和新驱动器(称为sdd1)的BIOS设置中创build一个RAID 1。 我们称之为rda1(我不知道使用了什么命名,只是在我的步骤中清楚)。 将rda1添加到我的VG(vgextend) 将所有LV移到rda1(pvmove) 从VG(vgreduce)中删除sdb1 添加另一个新驱动器,并在BIOS中为sdb1和新驱动器2(sde1)创build一个RAID 1。 我们称之为rdb1。 将rdb1添加到我的VG(vgextend) 最后,我真的希望在两个RAID上重新分配数据,这样它们不仅仅是坐在那个上面。 手动移动一些LV到另一个RAID磁盘是否合理? 我可以以某种方式添加条纹,并让数据均匀分布,还是必须重新创buildLV才能做到这一点? 这里是我目前的设置(我也有一个固态硬盘操作系统安装和LVM,但我只是显示数据驱动器)的快速概述: $ sudo pvdisplay — Physical volume — PV Name /dev/sdb1 VG Name vg_media PV Size 2.73 TiB / not […]

为什么我的服务器在LVM内移动root fs后无法启动?

我试图把我的根分区移到基于物理卷的RAID上,而我似乎失败了。 我使用的程序有点复杂,但是这是因为我的托pipe服务提供商具有非常有限的安装能力,所以我无法使用在raid卷上使用lvm制作的根文件系统。 为了testing我的情况,我在VirtualBox中创build了4个磁盘的虚拟实例: / dev / sda – 8GB / dev / sdb – 8GB / dev / sdc – 20GB / dev / sdd – 20GB 并在那里安装了Linux(Debian 8.5)。 最初安装后,布局是: / dev / sd [bcd] – 未分区,未使用 / dev / sda – 具有1个分区(/ dev / sda1),小(4GB),用作LVM的PV 在这个PV上,我创build了VG和LV,它现在用作/: 这是它的样子: =# mount / mount: /dev/mapper/vg-root is already […]