一般来说,对于虚拟化来说是新手,对于Linux来说有点新(使用Debian Squeeze来自BSD),我很难理解什么是我的主机最好的networking桥接选项。 如果networking上的信息不是全部,似乎已经过时了。 有br0,tun,tap和vnet之类的信息。 我几乎失去了他们的意思和做的东西,并会很感激,如果有知识的人可以把它弄倒我。 我想为我的Debian主机提供最好的性能和灵活的设置,(* BSD)客户可以pipe理他们自己的防火墙(PF)。 Squeeze主机在适当的硬件路由器后面有两个硬件NIC。 在这一点上,我认为把客人放在他们自己的专用硬件nic(eth1)上,使用内部ip范围(10.0.0.x),而主机使用eth0是明智的,但是我很乐于接受专家:)
我们在Ubuntu 9.10上安装了带有超线程function的新款四核至强CPU。 如英特尔产品页面上所述,处理器有4个内核,但有8个线程。 / proc / cpuinfo和htop都列出了8个处理器,但是每个处理器在cpuinfo中声明4个核心。 KVM / QEMU也报告可以分配给客人的8个VCPU。 我的问题是,当我分配VCPU到VM guest,我应该分配每个内核还是每个线程? 由于KVM / QEMU报告服务器有8个VCPU要分配,我应该继续设置一个guest虚拟机来使用4个CPU,我以前曾经设置它使用2(假设有4个总的VCPU可用)? 我想从主机硬件中获得最大的可能,而不会过度分配。 更新: Chopper3的答案无疑是正确的做法。 不过,我仍然喜欢听到那里的硬件专家谁可以阐明线程与核心的性能方面…任何人?
我在Ubuntu 9.04(服务器)上创build桥接networking 我设置了以下configuration文件 的/ etc /networking/接口 auto lo iface lo inet loopback auto eth0 iface eth0 inet manual auto br0 iface br0 inet static address 192.168.1.10 network 192.168.1.0 netmask 255.255.255.0 broadcast 192.168.1.255 gateway 192.168.1.1 bridge_ports eth0 bridge_fd 9 bridge_hello 2 bridge_maxage 12 bridge_stp off 我不知道这个参数meningings bridge_fd,bridge_hello,bridge_maxage,bridge_stp
我用virt-manager创build了一个运行在kvm / qemu上的虚拟机。 该机器在通过virt-manager启动时运行良好。 但是,我希望能够通过init.d中的脚本启动和停止VM,以便与主机一起上下移动。 我需要让virt-manager显示机器正在运行,并能够通过那里连接到它的控制台。 当我使用运行ps -eaf | grep kvm生成的命令行时 ps -eaf | grep kvm通过virt-manager启动虚拟机之后,我得到了一些关于redirect字符设备的控制台消息,但是机器启动并正常运行。 但是,我没有从virt-manager那里得到任何启示。 我该如何修改命令行才能使virt-manager获取正在运行的虚拟机? 还有什么关于命令行应该改变,当开始以外的virt-manager? 命令行(为了便于阅读,稍微重新格式化): /usr/bin/kvm -S -M pc-0.12 -enable-kvm -m 512 -smp 1 -name BORON \ -uuid fa7e5fbd-7d8e-43c4-ebd9-1504a4383eb1 \ -chardev socket,id=monitor,path=/var/lib/libvirt/qemu/BORON.monitor,server,nowait \ -monitor chardev:monitor -localtime -boot c \ -drive file=/dev/FS1/BORON,if=ide,index=0,boot=on,format=raw \ -net nic,macaddr=52:54:00:20:0b:fd,vlan=0,name=nic.0 \ -net tap,fd=41,vlan=0,name=tap.0 -chardev pty,id=serial0 -serial […]
我们有一个由两个节点组成的Heartbeat / DRBD / Pacemaker / KVM / Qemu / libvirt群集。 每个节点使用以下软件包/版本运行Ubuntu 12.04 64位: 内核3.2.0-32-generic#51-Ubuntu SMP DRBD 8.3.11 qemu-kvm 1.0 + noroms-0ubuntu14.3 libvirt 0.9.13 起搏器1.1.7 心跳3.0.5 虚拟客户端正在运行Ubuntu 10.04 64位和Ubuntu 12.04 64位。 我们使用libvirtfunction将主机CPU的function传递给虚拟客户机,以实现最佳的CPU性能。 现在这是这个集群上的一个常见设置: 虚拟机“监控”有4个vCPU 虚拟机“监控”使用ide作为磁盘接口(我们目前正在切换到VirtIO,原因很明显) 我们最近跑了一些简单的testing。 我知道他们不专业,没有达到高标准,但他们已经显示出强大的趋势: 节点A正在运行VM“bla”节点B正在运行VM“监视” 当我们从虚拟机“bla”到虚拟机“监视”rsync的文件,我们只达到12 MB /秒。 当我们在虚拟机“监控”内部执行一个简单的dd if / dev / null = / tmp / blubb时,我们可以达到30 MB / s左右。 […]
如何减less或缩小KVM虚拟机磁盘的大小? 我分配了一个500GB的虚拟磁盘(存储在/var/lib/libvirt/images/vm1.img),我发现过度杀伤,所以现在我想释放一些空间用于其他虚拟机器。 似乎有关于如何增加图像存储的很多答案 ,但不能减less它。 我发现了virt-resize工具,但它似乎只适用于原始磁盘分区,而不是磁盘映像。 编辑:我正在使用一个Ext4格式分区的LVM。 编辑:GParted截图显示我的LVM parition布局。 我需要做更多的事情,然后调整文件系统的大小。 我知道没有安全的方式来调整LVM的大小。 请不要告诉我使用pvresize 。 尽pipe它的名字,它不支持调整LVM的大小。 我曾尝试sudo pvresize /dev/vda5 ,但它只是说physical volume "/dev/vda5" changed但实际上并没有减小大小。 我尝试开始parted手动设置分区大小(非常危险),但做print all只是给我的错误“/ dev / sr0无法识别的磁盘标签”。 编辑:通过按照这些说明 ,我能够成功地收缩我的逻辑卷和物理卷(尽pipe我必须记住在某些命令之前和之后激活和停用lvm,这些说明省略了。 现在GParted显示了250G的未分配空闲空间。 我如何从KVM磁盘镜像中删除这个镜像,并将其还给底层的虚拟机pipe理程序?
我正在尝试更改VM的引导设备。 我在/etc/libvirt/qemu VM的XML文件,并设置<boot dev='cdrom' /> 。 不过,它试图从硬盘而不是从光盘启动。 我知道我有一个加载在CD-ROM虚拟设备上的ISO映像。 我不正确吗? 我试图彻底closures虚拟机,并启动它无济于事。 也许我需要重新加载设置? 编辑: 根据@Selivanov的要求: $ libvirtd –version libvirtd (libvirt) 0.8.7 和XML文件: <domain type='kvm'> <name>nimmy.example.com</name> <uuid>(SNIP)</uuid> <memory>524288</memory> <currentMemory>524288</currentMemory> <vcpu>1</vcpu> <os> <type arch='x86_64' machine='rhel6.1.0'>hvm</type> <boot dev='cdrom'/> </os> <features> <acpi/> <apic/> <pae/> </features> <clock offset='utc'/> <on_poweroff>destroy</on_poweroff> <on_reboot>restart</on_reboot> <on_crash>restart</on_crash> <devices> <emulator>/usr/libexec/qemu-kvm</emulator> <disk type='file' device='disk'> <driver name='qemu' type='raw' cache='none'/> <source file='/var/lib/libvirt/images/nimmy.img'/> […]
我想在KVM来宾和主机之间共享一个文件夹。 我只想将数据存储在主机上。 什么是最好的解决scheme? 谢谢你
是否可以访问虚拟机而不必将远程端口和VNC转发到本地主机? 我希望能够将VNC插入到KVM服务器并查看虚拟机显示。
使用“主”访客运行虚拟机是否有意义, 在那个主客人里跑了很多其他的客人? 有没有人testing过这个? 这甚至有可能吗? 有更好的方法来实现我的目标吗? (继续阅读) (我search“客人在客人”,什么都没find) 我想做什么 :我想build立和testing各种虚拟networking,数据库和应用服务器,并testing不同的防火墙,DNS服务器,数据库服务器configuration等。 我可以通过直接在主机上运行guest虚拟机来完成此操作,但是可能需要修改主机上的networkingconfiguration(例如configure dnsmasq ?),具体取决于要testing的networking设置。 我也需要分别开始每个客人。 而如果所有的客人都在一个主客人的内部运行,那么我可以在该主客人上configurationnetworking,并且我只需要启动和停止该主客人,并拍摄它的快照,以隐式地启动并停止在其内部运行的所有客人。 (我会有很多主人,一次只能跑一个人。) 我正在使用Ubuntu 11.4和KVM,以及硬件虚拟化支持(AMD-V)。 你认为客人中的客人会受益于虚拟化吗? 更新 :我应该search“嵌套虚拟化”,而不是“客人在客人”。 现在我发现了很多链接:-)例如,将运行中的虚拟机实际从主机迁移到嵌套的VM主机的示例: 从物理ESX 4到虚拟ESX 4的VMotion 你回答,谢谢你提到“嵌套虚拟化”:-) 更新 : AMD处理器的性能信息,从2008年开始 : 直到现在,当kvm虚拟化一个处理器时,guest虚拟机看到一个与主机处理器相似的CPU,但没有虚拟化扩展。 这意味着您无法在guest虚拟机中运行需要这些虚拟化扩展的虚拟机pipe理程序(您仍然可以运行不依赖于这些扩展的虚拟机pipe理程序,例如VMware,但性能较低)。 使用新的修补程序,虚拟CPU将包含虚拟化扩展; 这意味着客户可以运行一个pipe理程序,包括kvm,并有自己的客人。 (感谢“wzzrd”) 更新 : 从2011年起,英特尔处理器的性能信息 : “在Ubuntu版本库中,当前版本的kvm不支持intel vmx的嵌套虚拟化,有了kvm的最新补丁,但仍有可能发展”