随着越来越多的公司转向公共云服务,我很好奇你们对云中TCP / IP调优的想法。 这是值得打扰吗? 鉴于你没有访问主机服务器,你有一定的限制,我想 比方说,为了说明您在FreeBSD或Linux上的副本集中运行了三个MongoDB服务器,它们都通过内部networking进行同步。 如果有人提出任何实际的性能基准来支持他们的论点,我也会很好奇。 我在这里testing了KVM / Qemu可用的各种networking驱动程序,但我很好奇这里的专家build议进一步调整。 我开始在这里提出一些调谐build议,但是有趣的是,我看到性能下降,而不是增加,但是可能我没有完全理解调整。 更新:我做了几个基准,并在这里公布结果。 不幸的是,结果并不是我所期望的。
我有一台CentOS 6.3机器,目前通过KVM / QEMU / Libvirt运行2个虚拟化的CentOS 6.2机器。 我正在尝试在guest虚拟机和主机之间build立文件系统传递。 但是该选项在虚拟化pipe理器中显示为“不支持此虚拟机pipe理程序/ libvirt组合”消息。 此外,如果我试图设置它使用 virsh edit [VM name] 虚拟机在启动时会抛出一个“QEMU不支持的传递”的错误(对不起,我现在没有确切的错误,我没有访问机器,下次更新时我会在前面)。 我似乎无法find关于这个问题的很多信息。 CentOS和文件系统直通之间是否存在兼容性问题? 谢谢。
我正在testingOpenstack,我想知道如何才能找出有关实例(虚拟机)内的资源利用率。 Openstack在我的testing环境中使用kvm,qemu和libvirt。 有没有办法在没有login机器(CPU,内存,交换,networkingstream量)的情况下获得这些统计信息? 我想从hypervisor或libvirt收集这些数据。 有什么build议么?
我在/ var / backups / disk1中有一个目录,我想要转换成虚拟磁盘映像,然后使用QEMU或KVM启动(该目录包含虚拟机的文件系统,已复制通过rsync输出)。 虽然有很多指令将一个完整的物理磁盘转换为一个虚拟磁盘,但是将只有一个目录的内容打包成一个虚拟磁盘映像要比我想象的要困难得多。 有任何想法吗? 顺便说一下,我知道我可以使用qemu-img将块设备转换为虚拟磁盘(例如,“qemu-img convert -f / dev / sdc -O qcow2 disk.qcow2”),所以如果我只能得到目录/ var / backups / disk1看起来是一个块设备,那么理论上我应该能够使用qemu-img完成我的目标。 我想过创造性的方法,使用NBD或环回设备将目录作为块设备公开,但是还没有成功。
如果我使用我的机器[Ubuntu 16.04 64位,内核4.4]一段时间,QEMU需要内核caching丢弃,否则,它不会pipe理分配内存。 为什么会发生? 这是一个示例运行: ~$ free -m total used free shared buff/cache available Mem: 15050 5427 3690 56 5931 4803 Swap: 0 0 0 ~$ sudo qemu-system-x86_64 -m 10240 # and other options qemu-system-x86_64: cannot set up guest memory 'pc.ram': Cannot allocate memory ~$ echo 3 | sudo tee /proc/sys/vm/drop_caches 3 ~$ free -m […]
我们有一个由两个节点组成的Heartbeat / DRBD / Pacemaker / KVM / Qemu / libvirt群集。 每个节点使用以下软件包/版本运行Ubuntu 12.04 64位: 内核3.2.0-32-generic#51-Ubuntu SMP DRBD 8.3.11 qemu-kvm 1.0 + noroms-0ubuntu14.3 libvirt 0.9.13 起搏器1.1.7 心跳3.0.5 虚拟客户端正在运行Ubuntu 10.04 64位和Ubuntu 12.04 64位。 我们使用libvirtfunction将主机CPU的function传递给虚拟客户机,以实现最佳的CPU性能。 现在这是这个集群上的一个常见设置: 虚拟机“监控”有4个vCPU 虚拟机“监控”使用ide作为磁盘接口(我们目前正在切换到VirtIO,原因很明显) 我们最近跑了一些简单的testing。 我知道他们不专业,没有达到高标准,但他们已经显示出强大的趋势: 节点A正在运行VM“bla”节点B正在运行VM“监视” 当我们从虚拟机“bla”到虚拟机“监视”rsync的文件,我们只达到12 MB /秒。 当我们在虚拟机“监控”内部执行一个简单的dd if / dev / null = / tmp / blubb时,我们可以达到30 MB / s左右。 […]
我正在尝试更改VM的引导设备。 我在/etc/libvirt/qemu VM的XML文件,并设置<boot dev='cdrom' /> 。 不过,它试图从硬盘而不是从光盘启动。 我知道我有一个加载在CD-ROM虚拟设备上的ISO映像。 我不正确吗? 我试图彻底closures虚拟机,并启动它无济于事。 也许我需要重新加载设置? 编辑: 根据@Selivanov的要求: $ libvirtd –version libvirtd (libvirt) 0.8.7 和XML文件: <domain type='kvm'> <name>nimmy.example.com</name> <uuid>(SNIP)</uuid> <memory>524288</memory> <currentMemory>524288</currentMemory> <vcpu>1</vcpu> <os> <type arch='x86_64' machine='rhel6.1.0'>hvm</type> <boot dev='cdrom'/> </os> <features> <acpi/> <apic/> <pae/> </features> <clock offset='utc'/> <on_poweroff>destroy</on_poweroff> <on_reboot>restart</on_reboot> <on_crash>restart</on_crash> <devices> <emulator>/usr/libexec/qemu-kvm</emulator> <disk type='file' device='disk'> <driver name='qemu' type='raw' cache='none'/> <source file='/var/lib/libvirt/images/nimmy.img'/> […]
我试图使用一个多虚拟机vagrant环境作为部署OpenStack的testing平台,并且遇到了一个联网问题,试图从一个虚拟机到虚拟机内部的虚拟机进行通信。 我有两个Vagrant节点,一个云控制器节点和一个计算节点。 我正在使用主机专用networking。 我的Vagrantfile看起来像这样: Vagrant::Config.run do |config| config.vm.box = "precise64" config.vm.define :controller do |controller_config| controller_config.vm.network :hostonly, "192.168.206.130" # eth1 controller_config.vm.network :hostonly, "192.168.100.130" # eth2 controller_config.vm.host_name = "controller" end config.vm.define :compute1 do |compute1_config| compute1_config.vm.network :hostonly, "192.168.206.131" # eth1 compute1_config.vm.network :hostonly, "192.168.100.131" # eth2 compute1_config.vm.host_name = "compute1" compute1_config.vm.customize ["modifyvm", :id, "–memory", 1024] end end 当我尝试启动一个基于QEMU的虚拟机时,它在compute1上成功启动,其虚拟nic(vnet0)通过桥接器br100: root@compute1:~# brctl […]
这个问题实际上不在Solidworks附近 ,所以请继续阅读。 虚拟化的整个想法是硬件独立的。 在我们眼前,正在创build一个全新的依赖关系级别 – hypervisor的附加。 据我所知,以某种方式寻找解决这个问题的办法并不违反我国的Solidworks许可证和当地法律。 我的客户和我想在KVM虚拟机上激活Solidworks产品。 出于一些奇怪的原因(Hyper-V和VMware应该被很好地testing:),他们(开发者)的Solidworks 2015 PDM不希望他们的产品在Qemu-KVM上被激活(最后的2014版本工作得很好)。 http://www.solidworks.com/sw/support/11168_ENU_HTML.htm 我在用: 正如您可以看到它是基于KVM的虚拟机与Windows 2012和Solidworks PDM安装。 问题 :除了检查外,他们还能检查我是否在Qemu-KVM中运行我的虚拟机: VM的以太网适配器的MAC地址, 设备驱动标签, CPU型号, ACPI表。 我将在接下来的几个小时内排除上述提到的事情,但是我想知道你有没有其他想法。 解答 : 事实certificate,他们validation了两件事情: 正如迈克尔·汉普顿正确指出那里是-cpu,kvm=off选项 禁用CPUID 0x40000000叶。 客人的ACPI表。 qemu命令行参数的相关部分: -cpu host,kvm=off -smbios type=0,vendor=LENOVO,version=FBKTB4AUS,date=07/01/2015,release=1.180 -smbios type=1,manufacturer=LENOVO,product=30AH001GPB,version=ThinkStation P300,serial=S4M88119,uuid=cecf333d-6603-e511-97d5-6c0b843f98ba,sku=LENOVO_MT_30AH,family=P300 Libvirtdconfiguration文件语法: <domain type='kvm' xmlns:qemu='http://libvirt.org/schemas/domain/qemu/1.0'> # Please notice there is xmlns definition in <domain> tag. Without it # […]
我有一个Linux从零开始在QEMU虚拟机上运行的LiveCD。 我正在使用这个命令为qemu创build一个hda光盘: qemu-img.exe create -f qcow2 base-linux.img 5G 然后我运行我的vm: qemu.exe -m 1024 -boot d -cdrom lfslivecd-x86-6.3-r2145.iso -hda base-linux.img 启动后,我尝试这个命令: parted /dev/hda unit GB mkpartfs primary ext3 0 5 它给了我'未被识别的光盘标签错误'。 我正在使用parted 1.9.0,并没有想法如何解决它。