我目前能够ping客户操作系统(例如,我可以告诉,因为他们停止ping当客户虚拟机断电或networking正在重新启动等),但他们都不能ping通或执行任何networking任务。 入站ping在configurationIP转发并根据http://www.jansipke.nl/using-xenserver-in-a-routed-ip-network/设置xenbr0并将VM移动到其他NIC( 来宾VM在XenServer上无法访问networking ),但是,尽pipe可以ping通,但虚拟机无法ping通或到达任何types的外部连接(网关(主机IP))。 这是更可能作为客户操作系统级别的问题,或与主机的networkingconfiguration? 我倾向于说前者,因为我可以从Xenserver的networking外部ping IP。 客人工具等被安装,据我所知,没有防火墙问题发生。 受影响的客户操作系统是Ubuntu 12.04(它获取未知的实例错误,通常是VPS上的/etc/udev/rules.d/ …问题,但在这里似乎不是这种情况)和CentOS 6.3启用防火墙: CentOS VM的eth0configuration是: DEVICE="eth0" BOOTPROTO="none" DEVICE="eth0" BOOTPROTO="none" HWADDR="32:E8:7F:43:CF:5F" NM_CONTROLLED="yes" ONBOOT="yes" TYPE="Ethernet" UUID="a137f23c-cf18-4bb5-beb5-38ff76371363" IPADDR="174.34.135.164" NETMASK="255.255.255.192" GATEWAY="174.34.135.162" [The host IP] [root@localhost ~]# route Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface 174.34.135.128 * 255.255.255.192 U 0 0 0 eth0 link-local * 255.255.0.0 […]
我在Ubuntu Server 12.04上使用KVM,虚拟机在LVM上运行。 我想将它们迁移到Vmware-vsphere。 我怎样才能做到这一点。 有人可以build议我从哪里开始?
我正在安装一般的办公室东西,Windows / Sharepoint和Linux的混合物的一堆服务器 因为这些都不需要直接访问硬件,花哨的graphics或者是性能至关重要的,所以我们可以很容易地将它们进行备份,将它们转移到新的硬件上。 Xen本质上不使用CPU或内存,对客户操作系统没有任何限制(使用VT-x)即使您目前只运行一个guest虚拟机,是不是总是有这个意义?
我正在租用我认为正在使用Hyper-V VPS。 最近,我的VPS的处理器性能非常糟糕,但任务pipe理器中的CPU使用率并没有显示出它的挣扎。 在Hyper-V环境中,任务pipe理器中的CPU使用情况不是有用的衡量标准吗?
亚马逊用于GPU虚拟化的技术是什么? AWS GPU实例上的多个虚拟机可以同时共享GPU并为其CUDA / openCL程序加速吗? 我知道以下是GPU虚拟化可能的方法: 1)API远程处理:虚拟机仿真GPU,主机上的GPU以RPC方式从虚拟机调用。 这可以是基于共享内存或基于networking的远程处理。 2)实际的GPU虚拟化,其中多个VM可以同时共享GPU。 但据我所知,Xen(由AWS使用)不支持这个。 我必须做一个项目,我需要在一个内部私有云中共享一个组织的GPU。 我需要知道通过什么技术,云中的GPGPU是由AWS商业提供的? 我已经彻底search了,我的结论是,没有任何开源软件已经足够成熟,可以做到这一点。 请帮忙!
我有一个服务器有两个网卡,都直接连接到互联网。 我有五个不同的公共IP地址可用于虚拟机。 主机(Proxmox)不需要使用任何(它将使用私人IP,这一切),但将有互联网连接。 我已经通过了Proxmox文档,我无法理解大局,为我的需要设置正确的networkingconfiguration。 总之,我拥有的是: 一台服务器(Proxmox,主机) 在该服务器上,创build了5个虚拟机 5个公共IP地址可用(每个VM一个),假设:80.123.21.1,80.123.21.2,80.123.21.3,80.123.21.4,80.123.21.5 我现在对主机有以下几点: auto lo iface lo inet loopback auto eth0 iface eth0 inet manual auto eth1 iface eth1 inet manual auto vmbr0 iface vmbr0 inet static address 192.168.1.101 netmask 255.255.255.0 bridge_ports eth0 bridge_stp off bridge_fd 0 auto vmbr1 iface vmbr1 inet manual 它可以从内部networking到达,所以没关系。 它有互联网连接,这也是可以的。 vmbr1将被虚拟机使用。 每个VM将在其networking接口configuration文件中拥有自己的IP。 出于某种原因,虚拟机将不会有互联网,他们将无法拥有公共IP地址。 如果我使用NAT,它将正常工作,但不会使用公共分配的IP地址。 […]
我在RAID1上有一个Hyper-V服务器,带有2x500GB的驱动器。 我想用RAID6上的4x1TB驱动器replace这些驱动器。 我在一台主机上安装了四台虚拟机,只需要在新的主机安装上恢复虚拟机即可。 我试图找出最好(最安全)的方式来做到这一点,但也最大限度地减less停机时间。 恐怕我的select是有限的,会导致比我能负担的更多的停机时间。 这是我在想什么,但是想知道别人是否有更好的策略: 将虚拟机复制到另一台服务器。 交换2x500GB硬盘瓦特/ 4x1TB硬盘。 设置RAID并安装干净的Hyper-V主机。 将虚拟机复制到新主机并设置。 假设这是最好的方法,我仍然可能最好在几个小时的停机时间。 所以只是想知道是否有一种方法,我没有想到我可以用更less的停机时间来做到这一点。 不幸的是,这是一个单一的服务器环境,但我确实有另一台服务器可以用来在迁移过程中存储虚拟机。 更新:关于规格的一些更新。 这是一个Windows Server 2012 Hyper-V主机,具有两个Server 2012 VM和两个Server 2012 R2 VM。 该服务器是1U戴尔Poweredge R310,具有4个硬盘托架和硬件软件RAID,Dell PERC S100控制器。 我不是设置在1TB硬盘上,或者硬盘和固态硬盘,如果合理的话,可以多花点钱。 但是我确实需要更多的容量,想要更多的冗余,并且希望保持性能至less与RAID1相当或更好。
我在我的服务器上安装了fedora 19上的ovirt 3.3。 服务器有一个以太网连接,它是一个广域网,所以我没有一个局域网IP或DHCP。 我在这个接口上设置了桥接接口(ovirtmgmt),我的WAN IP为80.72.37.34 ,网关为80.72.37.33 。 现在我已经在Fedora上设置了一台服务器,并尝试创build虚拟机,一切都很正常,但我不知道如何在客户机系统上configurationnetworking。 在ovirt之前,我用kvm创build了virsh的networking,它像一个魅力一样工作,并且在dhcp服务器中构build。 现在我只想在我的访客系统上有192.168.1.*这样的虚拟networking连接互联网,试着做3天,没有任何结果。 谷歌没有任何帮助。 在主机configuration的pipe理员面板中,我有一个networking接口和一个逻辑ovirtmgmt与我的静态地址不知道如何做到这一点。
我无法从位于不同子网的计算机上访问由KVM托pipe的虚拟机上运行的Web应用程序。 所以,我想从机器192.168.1.2(在绿色圆圈的右上angular)访问虚拟机192.168.10.1上运行的Web应用程序(红色圆圈底部中间) 我在netgear路由器上添加了一个静态路由,以便所有到192.168.10.0/24的请求都被转发到主机192.168.1.1。 主机本身有一个静态路由,通过vmbr1桥接接口将请求转发到192.168.10.0/24 80端口上的Telnet从192.168.1.2失败,并从主机192.168.1.1成功。 对虚拟机的ping调用从192.168.1.2机器到VM traceroute失败,但如果我添加-I选项,traceroute也可以。 提前感谢您的帮助或任何线索。 PS:我确定,即使防火墙被禁用,也不起作用。 iptables -L Chain INPUT (policy ACCEPT) target prot opt source destination Chain FORWARD (policy ACCEPT) target prot opt source destination Chain OUTPUT (policy ACCEPT) target prot opt source destination 从物理机器192.168.1.2到VM机器192.168.10.1 => KO的跟踪路由 traceroute to 192.168.10.1 (192.168.10.1), 30 hops max, 60 byte packets 1 192.168.1.254 (192.168.1.254) 2.390 […]
我们如何从VMWare ESXi克隆VM而不关机? VM现在正在生产,所以不可能closures它,因为它会产生networking影响。