我开发了跨平台的软件,用wine,Windows XP和Windows 7testingWindows端口,后两者使用qemu和KVM进行testing。 我也有几个版本的OS X和Debian Wheezy作为KVM虚拟机。 为了从客户端访问我的项目,我使用了\\10.0.2.2\src来\\10.0.2.2\src一个Samba共享,并从guest \\10.0.2.2\src连接到这个共享。 这两个Windows虚拟机将其映射到networking驱动器Z: 这在所有平台上都运行良好。 但是,在5月13日之后,两位Windows客户并没有意识到变化,就好像他们在当天caching了份额的状态一样。 正在运行Z:\…\program.exe运行5月13日的程序, dir显示5月13日. , program.exe和program.dll但5月16日.. 令人惊讶的是,即使共享目录已被删除,这也可以工作! 这是怎么回事? 到目前为止,我已经尝试了谷歌search各种不同的术语,似乎相关(“共享显示旧文件”,“清除caching”,“禁用脱机文件”等),都无济于事。 主机是Ubuntu 15.04。 qemu版本是 QEMU emulator version 2.2.0 (Debian 1:2.2+dfsg-5expubuntu9.1), Copyright (c) 2003-2008 Fabrice Bellard samba版本是4.1.13-Ubuntu。 这是怎么回事? 谢谢。
我有一个两个虚拟网卡的kvm guest。 具有内部IP的NIC III.III.III.III (eth0) 具有外部IP的网卡EEE.EEE.EEE.EEE (eth1) 我正在使用macvtap。 主机拥有自己的外部IP。 我可以从主机ping两个网卡,但我不能从外面ping EEE.EEE.EEE.EEE 。 我在两个网卡上都做了一个tcpdump。 我在eth1上看到了ICMP请求,但似乎是使用“错误的”内部eth0接口发送了回复。 # tcpdump -i eth1 icmp -n 14:57:30.398789 IP XXX.XXX.XXX.XXX > EEE.EEE.EEE.EEE: ICMP echo request, id 1408, seq 6, length 64 14:57:31.398546 IP XXX.XXX.XXX.XXX > EEE.EEE.EEE.EEE: ICMP echo request, id 1408, seq 7, length 64 14:57:32.398547 IP XXX.XXX.XXX.XXX > EEE.EEE.EEE.EEE: ICMP echo […]
在我的KVM设置中使用存储池时遇到问题。 每当我尝试在我的virsh shell中使用pool- *命令时,都会收到以下错误消息。 virsh # pool-list error: Failed to get the number of active pools error: this function is not supported by the connection driver: virConnectNumOfStoragePools 其余的我的virsh命令似乎工作正常。 我的KVM主机在Centos 7上运行。
我有一些软件的虚拟机,其中许可证检查取决于CPUstring。 他们在kvm上运行 – 具有默认的cpustring值 – 这是QEMU Virtual CPU version 1.7.1 升级主机服务器到更新版本的debian – cpustring更改为QEMU Virtual CPU version 2.0.0 – 什么打破许可证检查。 任何方式(不包括重新编译/降级qemu / kvm)强制使用CPUstring的特定虚拟机QEMU Virtual CPU version 1.7.1 ?
我有: SUN X4100 M2 英特尔以太网适配器E1G42ET(支持VMDq和SR-IOV) Linux Ubuntu 14.04服务器(主机)可以设置15 KVM作为pipe理程序 我想要一些虚拟客户机(linux),并configurationVMDq和SR-IOV以进行正确的数据包通信。 我search了一些日子如何在Linux中configurationVMDq和SR-IOV,但只发现英特尔演示,图像与技术解释,没有真正的如何哪些可以帮助我configurationLinux,内核,KVM,networking接口,库,驱动程序,VLAN为此目的或别的东西。 伙计们,请启动任何帮助!
我想使用为 KVM运行的ASAv (页18)给出的优化。 我使用的是Ubuntu 14.04 LTS,我应该configurationmacvtap以获得更高的性能。 它只是在思科的指南中提到以下内容: macvtap – 高性能Linux桥接器; 你可以使用macvtap而不是Linux桥接器。 Note that you must configure specific settings to use macvtap instead of the Linux bridge. 我find了一些教程,并为我的2个VLAN 1654和1664设置了两个macvtap网桥: sudo ip link add link eth0.1654 name macvtap1654 type macvtap mode bridge sudo ip link add link eth1.1664 name macvtap1664 type macvtap mode bridge 不幸的是,当用virt-managerconfigurationnetworking设备时,我不能select它们。 显然,具体设置没有设置。 我不知道还有什么configuration,因此我可以使用这个优化为我的虚拟机。 […]
我login到KVM Guest(在Centos 6.6主机上运行Ubuntu 12.04)。 我按照这里的说明在VM中访问ptylogin提示 问题是,当我连接“virsh console”时,控制台填充terminal窗口就好了,但如果我尝试打开byobu,screens或vim,我只能使用80×24窗口。 我尝试在ttyS0.conf文件中使用“screen”和“screen-bce”而不是“xterm”,以及在控制台和屏幕/ byobu中更改TERMvariables,但没有任何组合似乎让我利用我的整个窗口。 感谢您的帮助。
考虑到有100个窗口虚拟机来自单个基本映像,并且每个虚拟机都被添加到域以及可以通过脚本完成的其他小型机器特定设置。 一周后说我想用安全补丁更新所有vms。 有两种方法可以做到这一点: 销毁所有vms,更新基础映像,再次创build所有vms。 问题:这需要销毁所有虚拟机,再次创build磁盘,定义虚拟机,然后根据需要运行所需的脚本,这些脚本会在多个重新启动周期内处理虚拟机特定的configuration。 手动更新所有vms并应用安全补丁。 问题:只是不能缩放。 可能是一套5-10 vms不是100的好。 我很好奇其他人/软件怎么做呢? 有更好的方法,还是我可以改进我的第一种方法?
我有一个系统运行:* openstack icehouse * Linux 3.13.0-48-generic#80-Ubuntu SMP Thu Mar 12 11:16:15 UTC 2015 x86_64 x86_64 x86_64 GNU / Linux(Ubuntu 3.13.0-48.80-generic 3.13。 11 ckt16) 突然服务器冻结,系统中的日志 [13551520.909322] BUG: soft lockup – CPU#4 stuck for 23s! [migration/4:76] [13551520.909357] Modules linked in: vhost_net vhost macvtap macvlan nf_conntrack_ipv6 nf_defrag_ipv6 xt_mac xt_physdev veth ipt_MASQUERA DE iptable_nat nf_nat_ipv4 nf_nat nf_conntrack_ipv4 nf_defrag_ipv4 xt_conntrack […]
我有一个virtualbox映像和configuration文件(.vbox),我想在kvm或qemu下运行。 我将磁盘映像文件转换为.qcow2映像文件,但是我不确定是否有任何工具对configuration执行相同操作(.vbox到kvm / qemu xml)。 KVM或QEMU中是否有相当于将适配器configuration为主机网桥的能力,能够映射主机IP(如10.20.0.2)? 下面是vbox适配器configuration <Adapter slot="0" enabled="true" MACAddress="080027BA0710" cable="true" speed="0" promiscuousModePolicy="AllowAll" type="82540EM"> <DisabledModes> <NAT> <DNS pass-domain="true" use-proxy="false" use-host-resolver="false"/> <Alias logging="false" proxy-only="false" use-same-ports="false"/> </NAT> <InternalNetwork name="intnet"/> <HostOnlyInterface name="vboxnet0"/> <NATNetwork name="NatNetwork"/> </DisabledModes> <BridgedInterface name="enp0s25"/> </Adapter> 谢谢。