我正在使用libvirt在Openstack环境之外引导cirros虚拟机。 在启动时,VM检查元数据二十次,这为启动时间增加了很多延迟。 环比“净”上涨至6.14 检查http://169.254.169.254/2009-04-04/instance-id 1/20失败:上升6.18。 请求失败 失败2/20:上升18.32。 请求失败 失败3/20:上涨30.38。 请求失败 4/20失败:上升42.44。 请求失败 [剪断] 我正在使用cirros-0.3.3。 我可以使用cloud-init或其他一些机制来禁用元数据查找吗?
在来宾机和主机上,我使用的是Ubuntu 12.04 。 作为一个pipe理程序,我正在使用KVM 。 我想执行一些与boot-storm相关的实验,并且创build了所有其他脚本来创build虚拟机,删除虚拟机和启动虚拟机。 但我不知道如何衡量每个虚拟机的启动时间。 尽pipe没有必要,但是如果启动时间在某种意义上,按名称或通过MAC地址等,有一对一的映射到虚拟机将是很好的。 启动时间:我想从主机做ssh,当它成功时,我会认为VM已经启动成功。 解决scheme应该是可扩展的,因为我想为100-150个虚拟机执行实验。 问题: 1)如何从主机获取访客虚拟机的IP地址? 2)域名 – > IP的映射 3)IP映射 – >启动时间
我有5个运行Ubuntu 14.04的物理机器,他们都在一个networking中。 这些全都具有静态IP地址。 每台机器都通过运行Ubuntu 14.04的KVM / QEMU具有1到4个虚拟机。 我可以使用DHCP为物理networking上的所有虚拟机获取非静态地址。但是对于我的分布式软件,我需要所有的虚拟机在虚拟networking中拥有静态IP地址(因为我无法获得更多的在物理networking上)。 然而这个虚拟networking应该跨越所有虚拟机上的所有访客。 而且,其中一台虚拟机在物理networking上也应该有一个静态地址。 我已经成功地为所有的虚拟机在单个主机上创build了一个虚拟networking,因此这些虚拟机可以有静态IP,但是如果我这样做,每个主机都无法工作。 我还为其中一个虚拟机上的物理networking上的静态IP创build了桥接接口。 这是我想要的scheme: 123.45.144.0/28 (physical network) 192.168.0.0/16 (virtual network for all the vms) 123.45.147.3 (host) 192.168.122.101, 123.45.147.49 (vm) 192.168.122.102 (vm) 192.168.122.103 (vm) 192.168.122.104 (vm) 123.45.147.4 (host) 192.168.122.105 (vm) 123.45.147.5 (host) 192.168.122.106 (vm) 123.45.147.6 (host) 192.168.122.107 (vm) 192.168.122.108 (vm) 123.45.147.7 (host) 192.168.122.109 (vm) 192.168.122.110 (vm) 这里是ifconfig的输出: […]
我目前正在使用Qemu 2.4.1试验,我希望能够移除less数硬件的支持。 像USB /鼠标/声卡等 当我修改源代码的时候 ,我可以使用default-configs/x86_64-softmmu.mak取消对less数的支持。 但是,这并不能完全解决我的问题。 那么,这是正确的做法吗? 无论如何,如何有select地从Qemu删除硬件支持? 谢谢。
我使用libvirt和KVM在Ubuntu 15.04服务器中设置了虚拟化的Ubuntu 15.10 guest虚拟机。 存储在主机系统中: # mount | grep ext4 /dev/sda1 on / type ext4 (rw,relatime,errors=remount-ro,data=ordered) /dev/sdb1 on /media/hdd type ext4 (rw,relatime,data=ordered) / dev / sda是一个SSD, / dev / sdb是一个硬盘。 最初的configuration是使用virt-manager完成的。 问题: 来宾系统的总体性能似乎是好的,但是一些操作,使用apt-get(因此来宾系统安装)显着地安装软件包是非常缓慢的。 来宾磁盘映像是原始格式,我已经尝试将它放在SSD和HDD作为一个文件,也作为一个单独的硬盘分区。 不同的位置会对性能有所影响,但是使用apt-get安装某些软件包仍然比主机系统慢两到三倍。 我也尝试了各种qemu磁盘caching选项, 并使用不安全的caching似乎完全消除了这个问题 。 但是,任何其他caching设置(包括none和writeback)都performance出糟糕的性能。 当然,使用不安全看起来不是一个真正的解决scheme。 这里是从客户xmlconfiguration摘录: <disk type='block' device='disk'> <driver name='qemu' type='raw' cache='none'/> <source dev='/dev/sdb2'/> <target dev='vda' bus='virtio'/> <boot order='2'/> […]
我有一个CentOS KVM服务器运行1个OpenBSD,1个CentOS和2个FreeBSD客户端。 只有openBSD客户端在KVM服务器上的CPU负载较高。 在服务器上8-10%,而客户处于闲置状态。 我在客人上运行的唯一服务是pfctl。 如果我禁用这个CPU负载保持不变。 KVM主机/ openBSd客户机可以对性能进行任何调整,以改善这一点。 与其他硬件唯一的硬件区别在于OpenBSD guest有一个PassThru PCI NIC。 我已经禁用了这个testing,Cpu负载在8-10%。 我经历了很多虚拟pipe理器的设置,即设置磁盘到VirtIO,显示到VGA /无等,CPU设置。 也许我缺less一个设置,因为我是新的qemu-kvm / libvirt? ps输出OpenBSD guest。 ps aux |grep 26303 qemu 26303 10.0 10.1 1538672 1219800 ? SLl 09:12 2:32 /usr/libexec/qemu-kvm -name skips -S -machine pc-i440fx-rhel7.0.0,accel=kvm,usb=off -cpu Haswell,-rtm,-hle -m 1024 -realtime mlock=off -smp 1,sockets=1,cores=1,threads=1 -uuid 0520a68a-de40-4187-8a9f-d1e05dc83255 -no-user-config -nodefaults -chardev socket,id=charmonitor,path=/var/lib/libvirt/qemu/domain-skips/monitor.sock,server,nowait -mon […]
我正在运行Proxmox 3.3.1来托pipe运行Linux的虚拟机(64位,内核版本3.2.0)。 虚拟机使用一个512GB的硬盘,不幸的是在创build虚拟机时configuration为使用ide驱动。 我怎样才能重新configuration虚拟机,使用virtio驱动程序访问硬盘? 我发现这个论坛的主题,但提出的解决scheme似乎是这样做的Windows客人,这需要添加一个小的虚拟HDD,以驱动程序安装驱动程序内的客人。 我想这不是Linux所需要的。 关于这个主题的另一个答案 (尽pipe纯粹是关于KVM,而不是关于Proxmox)提到这一点 […]您需要更改guest /dev/vdX的/etc/fstab文件中的驱动器标签,将/dev/sdXreplace为/dev/vdX [..] 不过,我注意到Proxmox guest并没有使用/dev/hdX ,而是使用/dev/mapper/<vmname>-root 。 所以我不确定这个答案是否适用,因为Proxmox似乎有自己的做事方式。
最近,我从Debian Wheezy向Jessie进行了远程升级。 升级没有任何错误,但在升级之后,交换分区不再被挂载/激活。 所提到的系统是一个KVM(qemu-kvm,centos7)。 在系统启动期间,systemd尝试挂载交换分区,但由于超时而失败,并显示消息“依赖失败…” 我到目前为止所尝试的是: 执行“swapon / dev / sda2”手动工作没有任何问题 用“mkswap / dev / sda2”重新创build交换分区 仔细检查fstab条目并使用UUID 删除了fstab条目,以便systemd自动检测到它 不同的选项参数(fstab) 问德国的debian社区 – 但没有有用的回应: https ://debianforum.de/forum/viewtopic.php?f = 32&t = 159902&p = 1084179#p1084179 用systemd(systemctl start dev-disk …)手动安装失败,出现同样的错误, 但是在执行完“swapon”和“swapoff”之后就可以工作了。 我到目前为止发现的: 实际上,有一个封闭的票据,很好地描述了我的问题: https: //bugs.debian.org/cgi-bin/bugreport.cgi ? bug = 764539 – 但是,问题是由于自定义内核(缺less选项) – 我不使用任何自定义内核,所以提到的选项被启用 有一个服务器故障线程,用户描述一个类似的问题,但有一个其他的系统和设置,没有任何响应: 交换分区没有安装在启动 附加信息: journalctl -r | grep“dev-disk” Mar […]
我有一个服务器与一个外部IP地址(例如1.2.3.4 )。 在该服务器上,我使用libvirt来运行虚拟机。 现在我想从外部通过ssh( port 1234 )访问我的主机上的虚拟服务器。 在我的主机系统上,我得到了一个连接到我的外部IP( 1.2.3.4 )的networking接口eth0 。 我的虚拟机通过一个名为virbr0的NAT接口连接到主机,IP地址为192.168.122.235 。 由于我需要转发一个端口,我做了以下与iptable iptables -t nat -A PREROUTING -p tcp -i eth0 –dport 1234 -j DNAT –to-destination 192.168.122.235:1234 iptables -A FORWARD -p tcp -d 192.168.122.235 –dport 1234 -m state –state NEW,ESTABLISHED,RELATED -j ACCEPT 对于基本的networking,我也得到了主机上运行的UFW允许port 1234 : Status: active Logging: on (low) Default: deny (incoming), […]
在serverfault的第一个问题,这样的新手,所有的反馈是值得欢迎的。 我有一台运行Debian GNU / Linux 8.4(jessie)的专用服务器,其中包含一个公共IP和多个额外的公共IP地址。 服务器有两个网卡,eth0和eth1,服务器主要公共IP路由到eth1)。 所有额外的公共IP分配给别名接口(eth1:0,eth1:1,eth1:2等),除了1个IP,我想分配给KVM客人,但在路由networkingconfiguration(数据中心不允许多个MAC地址连接到交换机端口,所以我没有select,只能使用路由而不是桥接)。 我已经设置了接口别名,并且我可以在Apache 2.4下(通过使用ISPConfig 3虚拟主机控制面板)将相应的公共IP分配给不同的虚拟主机。 虚拟主机在这种configuration下工作正常。 但是,当我尝试添加路由网桥(vmbr0)并通过它路由KVM访客stream量时,我失去了连接,必须重新启动服务器。 重新启动后,服务器将工作一段时间(分钟),并再次失去连接。 我似乎无法弄清楚什么是错的。 注意:我已经在另一个主机系统上使用了Hetzner指南[ https://wiki.hetzner.de/index.php/Netzkonfiguration_Debian/en#Routed_.28brouter.29] ,并且KVM客人工作正常。 唯一不同的是在这种情况下,我也需要有别名接口。 我已经创build了桥接接口: brctl addbr vmbr0 在重新启动networking之前 /etc/init.d/networking restart 主机系统的networkingconfiguration: auto lo iface lo inet loopback auto eth0 iface eth0 inet manual auto eth1 iface eth1 inet static address AAA.AAA.AAA.AAA netmask 255.255.255.0 gateway AAA.AAA.AAA.1 pointopoint AAA.AAA.AAA.1 auto eth1:1 […]