我们正在build立一个8机器build设农场。 这些版本中的大部分需要发生在Linux(Fedora 10截至目前)的特定版本上,而其中一些版本将会发生在几个不同的Windows VM上。 我们正在考虑使用Eucalyptus或Ubuntu企业云来运行Linux虚拟机,并且在我们需要的时候,只需在Windows上安装一些专用于Windows的机器就可以构buildVMWare。 但是, OpenNebula似乎也能以类似的方式工作,但是允许我们拥有部分或全部运行VMware免费(如啤酒) ESXi的节点。 所以我的问题是: Eucalyptus和OpenNebula之间的巨大差异,你们看到了什么? 是否有充分的理由select一个hypervisor而不是另一个? 虚拟机格式怎么样? (例如,KVM更容易与Fedora一起使用吗?)Windows支持使ESXi成为最有可能的select,但是我想知道是否有任何问题。 任何一个系统的pipe理和监控都会使其他系统更受欢迎吗? 我们可能主要通过构build工具使用的脚本接口来控制它们。 谢谢!
我有一个在Ubuntu Server 10.04上运行的FreeNAS 0.7.1 Shere(修订版5127)的KVM虚拟机,我无法说服虚拟机closures主机 virsh shutdown freenas 我希望这发送一些ACPI? 触发虚拟机和FreeNAS,然后按照所要求的进行操作。 我不是FreeBSD基金会,所以我不知道用什么软件包或stream程来获得这个运行。 我试图说服力量运行,但虚拟机cpus没有所需的freq条目 Sysctl硬件 $ sysctl hw hw.machine: amd64 hw.model: QEMU Virtual CPU version 0.12.3 hw.ncpu: 1 hw.byteorder: 1234 hw.physmem: 523116544 hw.usermem: 463806464 hw.pagesize: 4096 hw.floatingpoint: 1 hw.machine_arch: amd64 hw.realmem: 536850432 hw.aac.iosize_max: 65536 hw.amr.force_sg32: 0 hw.an.an_cache_iponly: 1 hw.an.an_cache_mcastonly: 0 hw.an.an_cache_mode: dbm hw.an.an_dump: off hw.ata.to: 15 hw.ata.wc: […]
我遇到了通过libvirt / qemu-kvm执行虚拟化的问题,其中我的桥接networking设置似乎没有正常工作。 我已经按照我可以find的每一个教程,并花了几个小时,通过论坛,但目前无济于事。 主机和来宾都使用Centos6。 这是主机的设置: [root@node2 ~]# ifconfig -a bridge0 Link encap:Ethernet HWaddr BC:30:5B:E8:C0:4F inet addr:10.59.190.253 Bcast:10.59.190.255 Mask:255.255.255.0 inet6 addr: fe80::be30:5bff:fee8:c04f/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:5315 errors:0 dropped:0 overruns:0 frame:0 TX packets:3350 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:316961 (309.5 KiB) TX bytes:3943630 (3.7 MiB) eth0 Link encap:Ethernet HWaddr […]
系统:CentOS 6.5 networking:桥br0 IPv6:ISP Native / 64块。 IPv4:ISP地址(不是内部LAN) 目的:要仅将IPv6分配给来宾(手动),我不希望将ipv4地址分配给来宾操作系统。 主持人: /etc/sysctl.conf中: net.ipv4.ip_forward = 1 net.ipv6.conf.all.forwarding = 1 net.ipv6.conf.br0.forwarding = 1 net.ipv6.conf.default.forwarding = 1 brctl显示 bridge name bridge id STP enabled interfaces br0 8000.e840f2ecdfed no eth0 vnet0 virbr0 8000.52540051ef3c yes virbr0-nic 使用ifconfig: br0 Link encap:Ethernet HWaddr E8:40:F2:EC:DF:ED inet addr:xxx.xxx.xxx.xxx Bcast:xxx.xxx.xxx.255 Mask:255.255.255.0 inet6 addr: 2607:beef:be:beef::1/64 Scope:Global inet6 […]
我想转发多个端口。 该命令运行我的虚拟机并成功转发RDP端口: qemu-system-i386 -net nic,model=rtl8139 -net user,hostfwd=tcp::3389-:3389 -m 512M -localtime -cpu core2duo,+nx -smp 2 -usbdevice tablet -k en-us -hda win.img -nographic 尝试了其他的命令,但没有运气,他们都似乎不好: qemu-system-i386 -net nic,model=rtl8139 -m 512M -localtime -cpu core2duo,+nx -smp 2 -usbdevice tablet -k en-us -hda win.img -nographic -redir tcp:443::443,tcp:992::992,tcp:1194::1194,tcp:5555::5555,udp:1194::1194,udp:500::500,udp:4500::4500,tcp:3389::3389 qemu-system-i386 -net nic,model=rtl8139 -net user,hostfwd=tcp::3389-:3389,tcp:443::443,tcp:992::992,tcp:1194::1194,tcp:5555::5555,udp:1194::1194,udp:500::500,udp:4500::4500 -m 512M -localtime -cpu core2duo,+nx -smp 2 -usbdevice tablet […]
我是虚拟派对的一个相对迟到的人,所以如果这看起来是一个明显的问题,那么你将不得不原谅我。 如果我有一个有12个内核的服务器,每个KVM客户端是否可以访问所有12个内核? 我知道KVM使用Linux调度程序,但这是我对“接下来会发生什么”的理解的地方。 我问的原因是,我们打算在KVM客户端运行10个不同的任务(为了便于升级而进行隔离),100%的时间不会使用单个内核,所以在这个基础上,必须为每个guest虚拟机分配1个虚拟CPU – 我们将从一个“完整的”空闲的服务器中脱颖而出,以显示它。 换句话说,假设我的描述如上,在处理能力方面,1个虚拟CPU实际上等同于12个物理核心吗? 或者,这不是如何工作? 非常感谢 史蒂夫
在CentOS 6上为KVM客人设置绑定桥接的正确方法是什么? 我目前正在玩两台KVM主机,每台主机都有几个客人。 我有两台HP DL380:每台4个nics。 我想在活动备份(mode = 1)债券中使用两个nics(eth0,eth1),用于故障转移原因,面向互联网。 那么我想要另外两个nics(eth2,eth3)也处于积极备份的债券,面对pipe理员/后台networking。 在债券之上,我需要一个KVM访客将用来访问前台或后台networking的桥梁。 在interwebz上,我find了许多不同的方式来configuration它。 有些人只是提到了结合,有些只是桥接,有些则将其结合起来。 我发现没有一个提到如果我用许多主机使用前后网将会发生什么。 我的一些问题/问题是。 我得到了正确的configuration文件的fetich,开发人员认为他们应该是,不只是工作的configuration文件。 我得到错误“内核:bond0:收到自己的地址作为源地址的数据包”。 bond0和bond1都是。 交通是否自动从后台networking转发到前端networking? 我应该使用ebtables / iptables或者什么来禁用转发stream量? 我是否需要使用生成树协议(STP)? 我需要任何特定的路线吗? 这是一个很好的图片,看看环境如何(至less是其中的一部分)。 这是我的相关configuration文件。 的/ etc / SYSCONFIG /networking NETWORKING=yes HOSTNAME=host1 GATEWAYDEV=br0 NETWORKING_IPV6=no / etc / sysconfig / network-scripts / ifcfg-eth0 – ifcfg-eth3 DEVICE="ethX" NM_CONTROLLED="no" ONBOOT=yes HWADDR=xx:xx:xx:xx:xx:xx SLAVE=yes MASTER=bondX HOTPLUG=no BOOTPROTO=none / etc / […]
我有另一台Ubuntu KVM主机上运行的Ubuntu 10.4虚拟机。 我想克隆这个虚拟机,但有一个新的IP地址? 我知道,我将不得不停止我的虚拟机,克隆它,不知何故给它一个新的IP地址,然后启动两个。 我怎样才能做到这一点,而不必SSH进入虚拟机? 我需要改变IP地址以外的其他参数吗?
在我的服务器上,我有一个名为“cards2”的KVM虚拟机。 它是通过执行(以root身份)创build的: # virt-install –connect qemu:///system –virt-type kvm –name cards2 –ram 2048 –disk /var/kvm/cards2.qcow,size=3 –vcpus=8 –cdrom /var/kvm/debian-8.5.0-amd64-netinst.iso –vnc –os-type linux –network network=default 该图片拥有权限: # ls -l /var/kvm/cards2.qcow -rwxr-xr-x 1 libvirt-qemu libvirt-qemu 3221225472 Aug 17 18:49 /var/kvm/cards2.qcow 但是我注意到, 任何使用SSH访问的用户都可以通过执行以下命令来访问虚拟机: virt-viewer –connect qemu+ssh://[email protected]/system vmname (注意,这个命令是远程执行的,而不是在服务器上执行的,它通过SSH隧道连接到连接URI为qemu+ssh://[email protected]的pipe理程序) 用户username只是username组的一个成员。 使用username帐户进行SSH连接时,虚拟机列表显示为空: $ virsh list –all Id Name State —————————————————- 在通过SSH执行以下操作时,我也无法使用套接字进行连接: $ […]
我有一个桥接器上的接口(例如br0)的虚拟机。 在重新启动网桥(closures,启动)后,VM不会看到networking,我必须执行“closures电源”(closures然后打开电源)才能使虚拟机看到networking。 为什么会发生,为什么重新启动没有帮助? 真诚。 pipe理程序是Ubuntu 16.04上的KVM