Articles of libvirt

使用KVM(virtio驱动程序)的networking性能较差 – 更新:使用vhost_net

我之前已经build立了几个基于KVM的networking,从来没有遇到这个问题,不能为我的生活认为我以前有不同的设置。 build立 基本上,我得到和完全戴尔堆栈: 2个戴尔N2024(堆叠千兆交换机) 几款适用于KVMpipe理程序的Dell R720 2个戴尔R320的网关/防火墙 所有机器运行CentOS6.5,pipe理程序,基本上标准安装几个sysctl调整。 目前,我已经有几个testing虚拟机的设置,与其主控(CentOS 6.X,基本安装,基本的木偶驱动configuration)类似的设置。 所有虚拟机是: 桥接到两个物理上分离的networking中的一个(即,每个pipe理程序具有两个以太网连接,一个用于公共/ DMZ桥接LAN,另一个是私有networking) 所有虚拟机都使用virtio进行networking,阻塞设备(基本上是运行virt-install命令的标准结果) – 例如(例如libvirt config) <interface type='bridge'> <mac address='52:54:00:11:a7:f0'/> <source bridge='dmzbr0'/> <model type='virtio'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/> </interface> 所有虚拟机都可以访问2到8个VCPU和8和64GB RAM,而他们的驱动器是主机上的LVM卷 虚拟机中的一些简单的文件副本和ddtesting产生完全可接受的结果(在这些小规模综合testing中为300MB / s – 800MB / s) 物理机之间的networking性能 现在我已经离开了巨型帧/ MTUconfiguration,服务器到服务器之间的传输将非常高兴地超过了千兆位连接(或在那里)( 100MB / s – > 118MB / s在每台机器上进行几次大文件testing) 物理机和虚拟机之间的networking性能(以及虚拟机到虚拟机) Rsync / […]

使用DNS访问libvirt + KVM虚拟机

我有一台运行KVM + Libvirt的Ubuntu Trusty机器来pipe理小型虚拟机,并使用标准的NetworkManager连接到常规networking。 我希望能够通过DNS从主机访问虚拟机。 Libvirt使用一个虚拟专用子网(192.168.122.0/24),NAT'd通过我的eth0上的网桥(virbr0)访问世界其他地方。 Dnamasq为此虚拟networking提供DHCP + DNS。 这是虚拟networking的libvirtconfiguration: <network> <name>default</name> <uuid>400c59ff-c276-4154-ab73-9a8a8d1c6be3</uuid> <forward mode='nat'> <nat> <port start='1024' end='65535'/> </nat> </forward> <bridge name='virbr0' stp='on' delay='0'/> <mac address='52:54:00:f4:bd:37'/> <domain name='kvm'/> <dns forwardPlainNames='no'> <forwarder addr='127.0.1.1'/> <host ip='192.168.122.1'> <hostname>host</hostname> <hostname>host.kvm</hostname> </host> </dns> <ip address='192.168.122.1' netmask='255.255.255.0'> <dhcp> <range start='192.168.122.2' end='192.168.122.254'/> </dhcp> </ip> </network> Libvirt启动一个侦听192.168.122.1:53的dnsmasq实例,它会回应所有的.knv请求,并将任何其他请求转发给我的主机。 这个dnsmasqconfiguration是由libvirt自动生成的: /var/lib/libvirt/dnsmasq/default.conf ##WARNING: THIS IS […]

远程自动configuration到XenServer虚拟机pipe理程序

我目前正在开发一个项目,在这个项目中我使用带有Ansibleconfiguration的Vagrant在VirtualBox中创build本地环境。 我目前正在和一所大学合作,我们有一个XenServerpipe理程序(免费版)。 我无法直接从我的位置访问虚拟机pipe理程序,但可以在同一个networking上SSH服务器并转发端口,以便使用XenCenter连接到它: ssh <remote machine> -L80:<xen-server>:80 -L443:<xen-server>:443 -L5900:<xenserver>:5900 -L59001…etc to 5910 59xx端口是因为XenCenter将VNC控制台放在这些端口上。 (我实际上是在Windows上使用putty,因为我不能让OpenXenCenter / Linux与这种types的隧道连接)。 Citrix XenCenter连接正常,我可以创build一个新的虚拟机,但无法通过XenCenter或其他VNC客户端连接到控制台。 如果我可以让VNC控制台工作,我可以创build一个基本盒子,然后复制它,并根据需要重新configuration不同的有用的剧本。 但是,只要我能自动configuration单个虚拟机,我真的不在乎能否获得控制台。 如果我可以用另一台机器上的客户机指向虚拟机pipe理程序并编写具有特定IP地址的虚拟机的脚本,那就太好了。 Vagrant不支持Xen作为提供者。 我发现一些使用libvirt的Xen支持有限,但是即使这样,Xen似乎也更适合安装在像Ubuntu或OpenSUSE这样的标准分发版上的Xen,而不是作为独立的Citrix Hypervisor。 有xen工具,但似乎也是在本地linux发行版上的xen。 有没有办法使用Vagrant或其他types的configuration工具远程configurationXenServer实例?

任何方式来释放在virt-manager中的KVM客人的焦点,而无需点击Ctrl_L + Alt_L?

有没有办法在virt-manager中将鼠标移入和移出KVM guest virt-manager而不必点击以获得焦点并按Ctrl_L + Alt_L键释放焦点? 背景 我通常使用virt-manager从Fedora 14系统进行连接,以pipe理在CentOS 5系统上运行的客户KVM。 为了看看它是否重要我尝试使用这些其他版本的virt-manager & libvirt来查看它是否是版本问题: OS virt-manager libvirt Steals focus? — ———— ——- ————- Fedora 14 0.8.7-2 0.8.3-10 Yes CentOS 5 0.6.1-16 0.8.2-25 Yes CentOS 6 0.9.0-14 0.9.10-21 Yes 不知道它是否重要,但访客虚拟机是Win2008R2 ,但我已经看到与其他操作系统的客人同样的问题。 下面是访客虚拟机的一个屏幕截图,我点击它之前和之后,显示它正在窃取焦点。 编辑#1 我只是尝试@tpow推荐的解决scheme,似乎是问题。 手动添加平板电脑input设备可以解决问题,现在我可以将鼠标移入和移出KVM来宾,而无需首先获得焦点。 以下是访客虚拟机的焦点截图。

基于Web的虚拟机pipe理器

我正在寻找一个基于Web的虚拟机pipe理器,它将在我们的Ubuntu服务器上工作。 理想情况下,我需要一些我们团队可以用来创build虚拟机,testing构build和打包,然后恢复到原始状态或删除的东西。 libvirt有一个API,但我找不到任何使用它的networking应用程序。 谢谢

在Libvirt中更改VNC监听地址,而无需重新启动虚拟机

有没有办法编辑Libvirt-Machine的dynamic地址? 目前看来,当我想编辑监听地址时,我必须先closures对应的虚拟机,然后编辑xml并重新定义域。 我目前正在build立一个小型的Web应用程序(libvirt前端),我想实现一个名为“启用/禁用vnc”的function – 但是,目前看起来似乎不可能,如果唯一的方法是closuresVM。

kvm低ioperformance

甚至光盘吞吐量(原始lvm分区上的libvirt)与服务器上的原始性能非常接近), 但是 IOP / s低至在Linux和Windows客户端,100-200个客户端(相对于1000个主机端)。 这是一个生活的事情(KVM不能做得更好)还是我做了一些完全错误的事情? 有趣的是,我能够通过改变设置(qcow2 vs raw-image vs raw-partition)或configuration(caching或IO调度)和变化来影响吞吐量,但IOP在所有那些处于相同的低点组合。 硬件# •超微双dual Xeon E5520与24GB内存 •2个希捷星座1TB(Adaptec 3405上的RAID1) •2x希捷猎豹(Adaptec 6405上的RAID1)。 软件 •Ubuntu 11.10 3.0.0-13-server •kvm / QEMU仿真器版本0.14.1(qemu-kvm-0.14.1) •从主机和来宾(Bonnie ++,hdparm,hdtune在Windows上)对磁盘进行基准testing(bonnie ++,hdparm) configuration 我testing了几个光盘configuration,目前的设置是: Linux主机 (他们只是不需要“高”IO性能,所以我保持更舒适的discfiles) •在我的星座上lvm上的qcow2光盘文件 •qemu / ide <disk type='file' device='disk'> <driver name='qemu' type='qcow2'/> <source file='/media/vm/images/mex/mex_root.qcow2'/> <target dev='hda' bus='ide'/> <address type='drive' controller='0' bus='0' unit='0'/> </disk> Windows主机### […]

在kvm上路由networking

有很多用于KVM连网的configuration。 但我无法从主持人或外部到达客人。 我正在使用Ubuntu 11.04。 在客人我有一个WindowsXP与DHCP。 我想要客人在主机的同一个networking。 我试图使用IP别名 我在/ etc / network / interfaces中build立了桥接networking auto eth0 iface eth0 inet manual auto eth0:1 iface eth0:1 inet static address 192.168.0.11 netmask 255.255.255.0 auto br0 iface br0 inet static address 192.168.0.10 netmask 255.255.255.0 gateway 192.168.0.1 bridge_ports eth0 bridge_stp off bridge_fd 0 bridge_maxwait 0 然后在/etc/libvirtd/qemu/network/default.xml中更改默认networking <network> <name>default</name> <uuid>831a93e1-0b84-0b0e-9ca2-23c407983968</uuid> <forward mode='route'/> […]

libvirtnetworking错误 – 找不到“默认”networking设备

我最初的目的是为OpenStack创buildCentos镜像。 虽然我直接和kvm做了,但还是对错误感到疑惑。 正在使用本手册来完成我的任务。 在这个命令之后: # virt-install –virt-type kvm –name centos-6.4 –ram 1024 \ –cdrom=/data/isos/CentOS-6.4-x86_64-netinstall.iso \ –disk /tmp/centos-6.4.qcow2,format=qcow2 \ –network network=default \ –graphics vnc,listen=0.0.0.0 –noautoconsole \ –os-type=linux –os-variant=rhel6 我得到一个错误: ERROR Error in network device parameters: Virtual network 'default' does not exist: Network not found: no network with matching name 'default' 不用说,我正在使用RDO 。 默认情况下,我没有任何libvirt的预configurationnetworking设备。 问题是哪些networking设备可用? 或者如果没有,如何创build一个? 也许RDO在libvirtnetworking上有不同的方法?

警告KVM加速不可用,使用“qemu”

运行debian( Linux Rick 3.16.0-4-amd64 #1 SMP Debian 3.16.7-ckt11-1+deb8u6 (2015-11-09) x86_64 GNU/Linux ) 看看我的cpuinfo我可以看到我有vmx的支持: flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf […]