我坚持在Ubuntu Server 14.04上使用Windows 8.1来宾操作系统来获得USB直通。 我开始使用Ubuntu文档( https://help.ubuntu.com/community/KVM )安装qemu。 USB设备(Datev mIdentity)被客人识别,但是我无法访问。 这与之前报告的错误是一样的( https://bugs.launchpad.net/qemu/+bug/1033727 ) 主机上的lsusb输出: # lssub [239775.341958] usb 3-4: hub failed to enable device, error -22 [239775.508845] usb 3-4: reset full-speed USB device number 11 using xhci_hcd [239775.508893] xhci_hcd 0000:00:14.0: Setup ERROR: setup context command for slot 10. [239775.509931] usb 3-4: hub failed to enable device, […]
我试图模拟使用QEMU的机器(deb1)直接连接到主机和其他2台机器(deb2,deb3)的3台机器的一个小networking: Host | ———–deb1———– | | deb2 deb3 deb1连接到两个不同的networking,一个(vlan 1)连接deb1与主机,另一个(vlan 2)连接deb1与另外两台机器,因此deb1必须侦听端口1234: kvm -hda deb1.img -m 256 \ -net nic,vlan=1 -net user,vlan=1 -net nic,vlan=2,macaddr=52:54:00:12:34:57 \ -net socket,vlan=2,listen=localhost:1234 deb2和deb3都必须连接到deb1,唯一的区别是他们的mac地址: DEB2: kvm -hda deb2.img -m 256 -net nic,vlan=2,macaddr=52:54:00:12:34:01 \ -net socket,vlan=2,connect=localhost:1234 deb3: kvm -hda deb3.img -m 256 -net nic,vlan=2,macaddr=52:54:00:12:34:02 \ -net socket,vlan=2,connect=localhost:1234 一旦这三台机器启动,我只是设置他们的IP地址: DEB1: ifconfig eth1 192.168.10.2 DEB2: […]
我有一个Web应用程序,需要相当多的依赖。 我目前正在评估使用kvm图像来帮助我们的用户在他们的服务器上安装这个应用程序。 然而,我们有一些关于定制这些图像的可能性,主要是networking和存储。 潜在的networking问题: 许多站点有多个networking(例如,一个用于公共Web界面的networking和一个用于数据的专用networking),并且虚拟来宾有时需要访问他们两个。 这应该很容易处理使用两个(或更多)虚拟networking接口。 然而: 有些站点使用DHCP,而其他站点需要静态IP 某些networking上存在MAC地址限制 如果我们在命令行更改MAC地址,虚拟客户端可能会分配一个新的接口(即eth2 / eth3而不是eth0 / eth1)。 由于udev规则,我们的debian客人会发生这种情况。 当这样的networking问题发生时,通常客户在尝试加载某些networking服务(例如MTA)时会在启动时花费时间。 我必须确定,目前访客通过桥接访问networking。 你用什么技术来解决这些问题? 有没有办法configuration一次虚拟客人,并在最小的configuration下运行它? libvirt能为这个过程提供一些帮助吗? 谢谢 ! 编辑: 感谢您的第一个答案。 现在我意识到我应该更精确一些: 首先,我们的应用程序当然可以安装在任何types的虚拟机(XEN,VMWare等)中,我们将为用户提供select。 我只关注KVM,因为有些网站提出了预先configuration的KVM映像的请求,并且不像现在使用Xen那样适合使用虚拟化技术。 其次,前面描述的networking问题他们可以面对的问题或多或less是我在工作中面临的同样的问题:我通常在我的台式计算机上创build一个虚拟机,然后将存档移动到群集中进行生产。 但是,我的台式电脑和集群之间的环境差别很大。 Linux版本是不同的,我们使用不同的专用networking等等。 所以,我们只想简化从计算机到集群移动虚拟KVM机器的过程。 实际上,我正在寻找一些强大的解决scheme,为虚拟客户提供一些关于他们的环境的提示。 例如在libvirt XML文件中添加一些信息,比如eth0和eth1的mac地址以及这些接口的IP地址,以及其他类似的东西(NFS等)。 由于我们使用networking桥接,我不认为主机上的本地DHCP服务器可能是一个很好的解决scheme,只能解决问题的一部分。 那么真正的酷就是将主机的configuration信息传递给来宾。 也许这已经存在,或者可以通过某种方式来实现。 所以我重新提出的问题是:是否有一个好的 (强大的,标准的,优雅的,无论) 从主机到客人 (理想情况下直接使用libvirt XML)的信息,如果它不存在或这个想法完全愚蠢(然后请给出为什么这是一个愚蠢的想法的论据)。 再次感谢) !
我在Ubuntu 10.10服务器上运行KVM 我可以创build虚拟机(虚拟机)和networking接口,但我似乎无法添加超过三个networking接口。 一旦我有一个有四个networking接口的虚拟机,就会在启动SeaBIOS页面时出现以下消息: Starting SeaBIOS (version pre-0.6.1-20100702_143500-palmer) 到目前为止,我已经通过两台虚拟机,一台Ubuntu 10.10桌面和一台Vyatta路由器进行了validation。 我分配给虚拟机的特定networking硬件似乎并不重要。 我试图有一个桥接接口和三个使用Vyatta的私人networking之间路由。 有谁知道为什么我不能运行一个虚拟机超过三个networking接口? 编辑:此外,负责特定VM的KVM线程挂起使用〜100%的CPU(即一个核心)。 以下是挂起的过程的命令: /usr/bin/kvm -S -M pc-0.12 -enable-kvm -m 512 -smp 1,sockets=1,cores=1,threads=1 -name vyatta -uuid 6dff7c94-6810-423e-5fea-fec10da0e9b7 -nodefaults -chardev socket,id=monitor,path=/var/lib/libvirt/qemu/vyatta.monitor,server,nowait -mon chardev=monitor,mode=readline -rtc base=utc -boot c -drive file=/home/rams/virtual-machines/vyatta.img,if=none,id=drive-ide0-0-0,boot=on,format=raw -device ide-drive,bus=ide.0,unit=0,drive=drive-ide0-0-0,id=ide0-0-0 -drive if=none,media=cdrom,id=drive-ide0-1-0,readonly=on,format=raw -device ide-drive,bus=ide.1,unit=0,drive=drive-ide0-1-0,id=ide0-1-0 -device rtl8139,vlan=0,id=net0,mac=00:54:00:be:cc:4b,bus=pci.0,addr=0x3 -net tap,fd=97,vlan=0,name=hostnet0 -device rtl8139,vlan=1,id=net1,mac=52:54:00:da:59:ed,bus=pci.0,addr=0x5 -net tap,fd=98,vlan=1,name=hostnet1 -device rtl8139,vlan=2,id=net2,mac=52:54:00:ce:22:b6,bus=pci.0,addr=0x6 […]
我有一个debian挤压安装的图像,并使用我创build了两个覆盖图像引导两个(几乎相同)的虚拟机。 当我单独启动它们(将它们连接到vde-switch并在qemu / kvm命令行中指定mac-adress)时,所有function都可以正常工作。 然而,当我同时运行它们奇怪的事情发生时: 第一台要引导的机器按预期工作,并创build一个“eth0”接口,但第二台机器不会创build“eth0”,而是创build“eth1”。 有人可以解释这种行为吗? 确保虚拟networking接口在所有vm中具有相同名称的最佳方法是什么? 非常感谢!
我的virt-manager工作正常,突然停止工作,抛出错误: RuntimeError: could not open display root@rakcal ~]# echo $DISPLAY localhost:10.0 [root@rakcal ~]# virt-manager Traceback (most recent call last): File "/usr/share/virt-manager/virt-manager.py", line 383, in <module> main() File "/usr/share/virt-manager/virt-manager.py", line 286, in main raise gtk_error RuntimeError: could not open display 有没有人见过这个? 同样的事情也发生在“virt-viewer”上: [root@rakcal ~]# virt-viewer winxp1 Cannot open display: Run 'virt-viewer –help' to see a full […]
我有一个带有虚拟化CPU的Centos 6盒,可以安装虚拟操作系统。 我通过SSH进行远程安装,而我的Centos 6盒子没有GUI(没有GNOME等),所以它完全是命令行。 下面的命令就是开始安装就好了: virt-install –nographics –name kvm3 –ram 768 –disk path=/home/chris/KVM/kvm3.img,size=12 –accelerate -c /home/chris/CentOS-6.2-x86_64-minimal.iso 然后我得到Centos安装的以下标准屏幕: +———————————————————-+ | Welcome to CentOS 6.2! | |———————————————————-| | Install or upgrade an existing system | | Install system with basic video driver | | Rescue installed system | | Boot from local drive | | Memory test […]
我有一个DOM0,包含两个configuration为软件RAID1的3TB硬盘驱动器,也有16GB的内存。 DOM0的Linux发行版是CentOS 6.3,pipe理程序是libvirtpipe理的KVM。 DOM0和DOMU之间的性能下降,DOMU写入吞吐量约为DOM0的40%。 我使用以下简单的dd命令testing了性能: dd bs = 1M count = 1024 oflag = direct if = / dev / zero of = testb conv = fdatasync 我为DOM0configuration了DEADLINE电梯,为DOMUconfiguration了NOOP电梯,而这又是一个Debian Unstable: Linux vm1 2.6.32-5-amd64 #1 SMP Sun Sep 23 10:07:46 UTC 2012 x86_64 GNU/Linux root@vm1:/home/paris# cat /etc/debian_version 6.0.6 至于libvirt中的DOMUconfiguration,下面是其中一个虚拟驱动器的XML片段,它们实际上是纯原始的崩溃文件: <disk type='file' device='disk'> <driver name='qemu' type='raw' cache='none' io='native'/> […]
我在OpenStack中运行KVM实例,并没有从DHCP服务器获取IP地址。 使用tcpdump,我可以在计算主机的vnet0上看到请求和回复数据包: # tcpdump -i vnet0 -n port 67 or port 68 tcpdump: WARNING: vnet0: no IPv4 address assigned tcpdump: verbose output suppressed, use -v or -vv for full protocol decode listening on vnet0, link-type EN10MB (Ethernet), capture size 65535 bytes 19:44:56.176727 IP 0.0.0.0.68 > 255.255.255.255.67: BOOTP/DHCP, Request from fa:16:3e:46:f6:11, length 300 19:44:56.176785 IP 0.0.0.0.68 […]
我试图迁移现有的IDE使用,基于LVM的CentOS 5.2虚拟机使用virtio。 当系统找不到任何卷组时,症状是引导时内核崩溃。 有谁知道如何使这项工作? 我创build了一个不使用LVM的vm安装,并能够将其切换到使用virtio。 这是我在使用LVM时所处的位置: 脚步: 在ide磁盘上安装使用LVM的kvm中的CentOS 5.2。 用virtio支持安装一个更新的内核,在我的情况下,2.6.18-371.6.1.el5.centos.plus并修改configs(详见下文)。 closures系统。 在virt-managerconfiguration中将磁盘types更改为virtio。 在grub提示符下启动并select新的内核。 “找不到卷组”,内核恐慌。 在上面的第二步中,我更新了/boot/grub/device.map,/etc/modprobe.conf,并重新运行了mkinitrd。 /boot/grub/device.map中: # this device map was generated by anaconda (hd0) /dev/vda /etc/modprobe.conf中: alias eth0 virtio_net alias scsi_hostadapter virtio_blk alias snd-card-0 snd-hda-intel options snd-card-0 index=0 options snd-hda-intel index=0 remove snd-hda-intel { /usr/sbin/alsactl store 0 >/dev/null 2>&1 || : ; }; /sbin/modprobe […]