我运行qemu-img resize kick.img +12G并认为我会看到一些免费的物理扩展名时运行pvdisplay,但没有。 当我运行virt-filesystems –long –parts –blkdevs -h -a kick.img我看到空间被分配在某种意义上: Name Type MBR Size Parent /dev/sda1 partition 83 500M /dev/sda /dev/sda2 partition 8e 8.5G /dev/sda /dev/sda device – 21G – 那么我可以将12G添加到sda2吗? 我需要将img转换为qcow吗? 谢谢。
我有以下情况:有4个磁盘的服务器 – 设备/dev/sdb – /dev/sde 。 每个磁盘都是物理卷,并且都在单个卷组中。 在这个卷组中,我有单个逻辑卷,跨越所有4个磁盘。 现在,我想将其迁移到更大的磁盘。 我添加了4个新驱动器(/dev/sdf – /dev/sdi) ,并将移动数据。 通常我会: pvmove /dev/sdb /dev/sdf 等待它完成 pvmove /dev/sdc /dev/sdg 等待它完成 pvmove /dev/sde /dev/sdi 问题是 – 我可以安全地同时运行所有4个pvmoves,而不必等待每个pvmove完成?
我有一个较旧的磁盘设置是用msdos分区types,而且它似乎不断增长相同的磁盘,以增长lvm,但它遇到了一个问题,它达到2TB,不能再增长。 客户想要附加一个3TB磁盘到lvm,但是你只能用msdos分区types来做2TB,所以我把它做成了GPT(同时也试图保持未来的增长,因为从历史上看,它们似乎增长了磁盘而不是附加额外的) 。 它join了lvm ok和fsck,一切都很顺利。 操作系统没有从这个磁盘启动,并重新启动。 有没有人看到这个设置的任何潜在的问题? 任何未来增长的障碍? 例如在同一个lvm中结合msdos / GPT分区。
我是一个虚拟化新手,为了创build一个kvm虚拟机,我一直在寻找一个灵活的磁盘格式,经过一番阅读,我决定去lvm。 并设置磁盘和分区为lvm(所以lvm里面基本lvm)。 我的问题是什么是你的经验一个好方法,或者一个好的脚本来备份虚拟机运行。 即,如果主机服务器因任何原因停止工作,我只需将备份服务器上备份的虚拟机安装到新主机上,然后启动它们即可。 我运行虚拟机的主机是Debian Jessie,没有graphics界面。
我有一个NFS服务器,正在与共享/出口/东西正常工作。 然而,当我挂载/出口/东西在/ dev / mapper /东西(lvm有更多的空间)的nfs不工作。 nfs服务器是一个centos7。 nfs的客户端是debian8。 / etc / fstab中: <file system> <mount point> <type> <options> <dump> <pass> /dev/mapper/centos-something /exports/something xfs defaults 0 0 nfs客户端绑定到/ exports /之前没有问题/ exports / something变成了lvm上的挂载。 如果我卸载lvm,那么nfs共享会重新开始工作,如果我重新挂载/导出/ lvm上的某些事情nfs重新停止工作(但lvm工作)。 我怎样才能让nfs客户端绑定到nfs服务器上的lvm挂载? 当它不起作用时,服务器有所有的守护进程运行,但客户端只有在他身边的文件。 没有日志条目的nfs。 我想切换nfs挂载,使其在lvm上。 debian8客户端上的Nfs版本: nfs-common 1:1.2.8-9 centos7服务器上的Nfs版本: libnfsidmap.x86_64 0.25-11.el7 @base nfs-utils.x86_64 1:1.3.0-0.8.el7 @base
我有一个CentOS 6.6桌面,安装时select了encryption选项。 这创build了一个LUKS卷组。 一切工作正常,但我想添加一个额外的驱动器卷组。 从阅读和大量的谷歌search,我相信这个过程是先encryption驱动器,然后将其添加到卷组。 — Physical volume — PV Name /dev/mapper/luks-9f2577eb-… VG Name vg_iridium PV Size 931.51 GiB / not usable 2.00 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 238466 Free PE 0 Allocated PE 238466 PV UUID jI2Ir0-0Wbe-Gi1H-BxfX-5pTn-hOkO-W1qWZt — Physical volume — PV Name /dev/mapper/luks-3a17bbe1-… VG Name vg_iridium PV […]
昨晚我的服务器崩溃,重启后我发现它有一个磁盘故障 Centos 6上的configuration是2 x 500GB sata sda3 / sdb3是软件RAID1 sda1 / sdb1 = ext3 for / sda2 / sdb2 =交换 sda3 / sdb3 = LVM LVM = / var,/ usr,/ home,/ opt,/ backup 磁盘sdb失败,它目前只在sda上运行 现在的魔法… 重新启动后,整个文件系统已经回到了一年半? 今天是14/07/15,最后更新的文件是15/02/14 所以我的问题是,RAID1上的LVM怎么回事? 没有备份,至less没有date:(他们都在LVM /备份分区,这也是时间倒退了 非常感谢 斯图尔特
我正试图在KVM上安装Windows Server 2012。 主机系统是Ubuntu Server 14.04。 我想使用一个逻辑卷,比如/ dev / VG / win,作为访客系统的主要设备。 但是,安装过程停止在我select驱动器的位置。 没有find驱动器,我被要求select(签名)的驱动程序。 我尝试了几个驱动程序的图像,但迄今没有发现任何工作。 如果我使用客人系统的图像文件,一切工作正常。 这是我的kvmconfiguration的设备部分: <os> <type arch='x86_64' machine='pc-1.0'>hvm</type> <boot dev='cdrom'/> <boot dev='hd'/> <bootmenu enable='yes'/> </os> … <devices> <emulator>/usr/bin/kvm-spice</emulator> <disk type='file' device='cdrom'> <driver name='qemu' type='raw'/> <source file='/data/virtio-win-0.1.102.iso'/> <target dev='hda' bus='ide'/> <readonly/> <address type='drive' controller='0' bus='0' target='0' unit='0'/> </disk> <disk type='file' device='cdrom'> <driver name='qemu' […]
我已经安装了一个文件服务器,它包含两个大型文件系统,每个文件系统由一个卷组中的单个LVM逻辑卷(10TB和16TB)组成。 组成LV的物理卷是通过iSCSI /多path连接的SAN LUN。 现在,我想通过NFS将这些服务提供给计算集群中的节点。 到目前为止,我有以下configuration。 在服务器上两个LV在: /mnt/LV1 /mnt/LV2 NFS / etc / exports类似于 /mnt/LV1 *(rw…) /mnt/LV2 *(rw…) 在我的客户端,我分别安装每一个。 我的问题是,我可以把它放在/ etc / exports中吗? /mnt *(rw) 并作为包含这两个逻辑卷的单点安装在客户端中? 天真地说,这看起来很奇怪,因为它们是分开的逻辑卷,但这也可能是正确的做法!
我使用LVM映像运行ubuntu 14.04 LTS。 经过一个大的数据导入到solr我面临的是一个完整的根分区的情况。 /dev/mapper/vg0-root 9.8G 9.3G 0 100% / 我发现,solrlogin/ var / solr / logs /包含在6G以上,我删除了所有这些。 不知何故,光盘仍然是满的,没有改变这个分区。 有什么可能导致这个,我怎么能解决这个问题find解决办法? 预先感谢您的任何帮助。