我正在尝试增加虚拟机上的vCPU。 我过去做过这个。 closures虚拟机 configuration允许的最大vCPU virsh setvcpus vm-1 10 –maximum –config 更改当前设置 virsh setvcpus vm-1 10 –current 启动VM 这种方式成功地将10个vCPU添加到我的虚拟机。 出于某些原因,我需要在VM上添加vCPU而不closures电源。 有没有办法做到这一点?
我曾经在Intel AMT SDK的文档中看到过一个例子,但是告诉我在我的networking中有一个intel vpro电脑需要很长时间,并且它不告诉我这个电脑的名字或ip地址。 有没有办法让我的networking英特尔vpro电脑的名称和ip地址?
随着VM计数的增长,推荐的存储解决scheme是什么? 目前我们有5台VM服务器(8核,32GB)和一台存储服务器。 目前我们有80多台虚拟机正在运行,存储服务器的磁盘IO越来越不堪重负,虚拟机性能越来越差。 我们正在考虑迁移到牧羊犬,以兼顾冗余和扩大规模。 我们不需要超快速的虚拟机,因为大多数虚拟机都用于生产计算机或内部网站的开发实例。 关于这个幻灯片的牧羊犬缩放和性能的一些信息: http : //www.osrg.net/sheepdog/_static/kvmforum2010.pdf 其他选项是增加我们的存储服务器中的磁盘数量,添加一个物理RAID设备,并添加一个读/写caching。 (尽pipe如此,我不得不closures我们的整个虚拟基础架构来做硬件升级这台服务器…)。 允许扩展到150个虚拟机的最佳实践是什么? 编辑 在克里斯的评论之后,我开始翻遍牧羊犬邮件列表,他们也不推荐生产。 显示我需要如何更好地打印更多… 看起来我需要更多地阅读存储解决scheme,并进行一些购买以升级我们的产品。 目前我们有双核四核AMD皓龙2磁盘镜像集的OS 6x2TB磁盘软件RAID数据(我认为RAID 10)
最近版本的OpenStack附带的Quantumnetworkingpipe理器不支持nova-list network create命令的–bridge和–bridge-interface参数。 写一个新的Quantum插件的时候,有没有办法让Quantum使用现有的桥接器件而不是创build新的桥接器件? 我们正在一个环境中部署OpenStack,在这个环境中,我们有less量的VLAN被分配给我们的云环境使用。 我们典型的KVM主机configuration通过大量桥接设备公开这些configuration,当使用virt-install手动build立新的客户实例时,我们只需将它们分配给适当的桥接设备,我们就可以走了。 我们还没有弄清楚如何将Quantum整合到这个环境中(或者甚至可能)。 作为后备,我们可以使用OpenStack中提供的其他一些networking支持,但是我们很难确定我们在Quantum上的问题是代码中的devise决策,还是我们阅读文档时遇到的问题。
我有这种情况,一切工作正常,但我想configuration我的Shorewall,我不能这样做。 我的界面是: br0 (bridge of eth0) tun0 (OpenVPN) vnet* (each one of bridged interfaces with public IP's) Public Main IP: 188.165.XY OpenVPN IP's: 172.28.0.x Bridge: public ip's 所以,我有shorewall的下一个configuration: 在/ etc /的shorewall /区 #ZONE TYPE OPTIONS IN OUT # OPTIONS OPTIONS fw firewall inet ipv4 road ipv4 的/ etc /的shorewall /接口 #ZONE INTERFACE BROADCAST OPTIONS inet […]
我想用一个shell来访问我的KVM虚拟机。 我通过proxmox 2.3创build了它,通过官方模板安装了Ubuntu 12.04。 我想find与之相同的命令 vzctl enter <VM_id> 为OpenVZ容器。 我没有在proxmox qm的Wiki上find任何东西。 有什么类似的吗?
多个Windows虚拟机,他们都安装了相同的软件(他们实际上是克隆),我必须运行pipe理+授权的原因,给我头痛的存储明智的。 Linux上的KVM运行良好,但ext4不提供任何重复删除function。 有LessFS,它似乎不错,但是是谁在生产运行没有重大问题? 如果不是LessFS,那么问题是:是否有可用于KVM的生产就绪磁盘重复数据删除文件系统?
我在使用硬件RAID的戴尔PowerEdge R415新VM主机上解决了性能不佳的问题。 我们有大约20个虚拟机运行如下: qemu-system-x86_64 \ -enable-kvm \ -name rc.stb.mezzanine -S \ -machine pc-0.12,accel=kvm,usb=off \ -m 2048 \ -realtime mlock=off \ -smp 2,sockets=2,cores=1,threads=1 \ -uuid 493d519c-8bb5-2cf8-c037-1094a3c48a7a \ -no-user-config \ -nodefaults \ -chardev socket,id=charmonitor,path=/var/lib/libvirt/qemu/rc.stb.monitor,server,nowait \ -mon chardev=charmonitor,id=monitor,mode=control \ -rtc base=utc \ -no-shutdown \ -boot strict=on \ -device piix3-usb-uhci,id=usb,bus=pci.0,addr=0x1.0x2 \ -drive file=/dev/vg-raid/lv-rc,if=none,id=drive-virtio-disk0,format=raw \ -device virtio-blk-pci,scsi=off,bus=pci.0,addr=0x5,drive=drive-virtio-disk0,id=virtio-disk0,bootindex=1 \ -drive file=/var/lib/libvirt/images/ubuntu-14.04-server-amd64.iso,if=none,id=drive-ide0-1-0,readonly=on,format=raw […]
今天我想增加虚拟机的大小,所以我做了我以前做的事情(之前做过): qemu-img resize diskimage.qcow2 +22GB 然后文件破坏,虚拟机无法启动。 我尝试从CD启动虚拟机来调整分区,但系统不会再读取磁盘: qemu-img check -r all diskimage.qcow2 tcmalloc: large alloc 389841715200 bytes == (nil) @ 0x7fdb4ea66bf3 0x7fdb4ea88488 0x7fdb4e5674a6 0x7fdb50236a37 0x7fdb50236bc8 0x7fdb50237011 0x7fdb5023941e 0x7fdb5023d891 0x7fdb5027848b 0x7fdb5027c196 0x7fdb491efb35 0x7fdb5021ee4d (nil) No errors were found on the image. 没有错误? 听起来不错,但virsh start vm不起作用,日志说: 2017-05-21T10:02:30.755824Z qemu-system-x86_64: -drive file=/…/diskimage.qcow2,format=qcow2,if=none,id=drive-virtio-disk0: could not open disk image /…/diskimage.qcow2: qcow2: […]
Hy,我目前正在使用libvirt + kvm设置一个新的服务器。 之后,这个服务器上应该有大约5台虚拟机在运行(+一些testing机器)。 存储被放在使用LVM设置的RAID-5设备上。 KVM现在运行在一些LVM逻辑卷上。 问题是: 在虚拟机内再次使用lvm来分区还有什么缺点吗? 所以它将是:硬盘 – > RAID控制器 – >物理服务器的LVM – >每个虚拟机一个逻辑卷 – >每个虚拟机内的LVM – >每个虚拟机内的几个逻辑卷。 如果我想在虚拟机中使用dynamic分区,还有其他的可能吗? 谢谢