我有一个guest虚拟机Ubuntu 14.04安装在kvm,主机是一个Fedora 20.客户端的eth1 nic是在macvtap桥模式。 Ubuntu默认启用ipv6隐私扩展,并且更喜欢临时地址: $ ip -6 addr show dev eth1 3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qlen 1000 inet6 2001:da8:207:e216:a935:a562:3102:7e00/64 scope global temporary dynamic valid_lft 599380sec preferred_lft 80380sec inet6 2001:da8:207:e216:5054:ff:fed5:8cae/64 scope global dynamic valid_lft 2591548sec preferred_lft 604348sec inet6 fe80::5054:ff:fed5:8cae/64 scope link valid_lft forever preferred_lft forever $ sysctl net.ipv6.conf.all.use_tempaddr net.ipv6.conf.all.use_tempaddr = 2 但是,我不能通过ipv6连接到Internet: ping6 ipv6.google.com […]
我上传我的guaji.img文件到服务器,并使用下面的代码: sudo virt-install -n guaji -r 512 –os-type=windows –os-variant=winxp –disk #{to_rmt},device=disk,bus=virtio –noautoconsole –import 和virt-manager显示它工作得很好,当我运行'virsh列表 – 所有',它显示 vagrant@vagrant-ubuntu-trusty-64:~/kvm-vak$ virsh list –all Id Name State —————————————————- 2 guaji running 但是当我运行virsh vol-list default ,它返回 vagrant@vagrant-ubuntu-trusty-64:~/kvm-vak$ virsh vol-list default Name Path —————————————————————————— 我的问题是:我的vm已经导入并运行良好,为什么vol-list返回null? 更新 :我目前的解决scheme是:创build一个.xml文件,并使用virsh vol-create default my.xml ,但我希望有一种方法来做所有与virt-install
我在Debian Wheezy下运行qemu / KVM。 我想让我的所有客人都完全encryption。 我可以看到的可能性: – 或者我使用dm-crypt(cryptsetup)encryptionLVM卷,并使用映射的设备作为VM的磁盘 – 或者我使用debian-installerencryption驱动器。 使用第二种解决scheme可以看到一个问题:增大卷的容量非常困难(closures计算机,调整主机的LVM卷大小,使用live-cd将chroot调入guest虚拟机,调整cryptsetup大小,调整guest虚拟机的卷大小,调整文件系统大小,然后那个使机器花4个小时启动的bug,然后完成)。 我想请一些build议! 谢谢!
我一直被这个问题困住了几天。 我在PowerKVM主机上运行一个Ubuntu 14.04 guest(PowerKVM是IBM Power Systems上的KVM,所以基本上只是KVM)。 我无法使桥接networking正常工作。 我甚至不能ping通默认网关。 我的猜测是在XMLconfiguration文件中有错误。 这里是文件。 KVM主机 localhost:/root # ifconfig -a brenP3p5s0f3: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 inet 172.16.229.200 netmask 255.255.255.192 broadcast 172.16.229.255 inet6 fe80::42f2:e9ff:fe5d:61bb prefixlen 64 scopeid 0x20<link> ether 40:f2:e9:5d:61:bb txqueuelen 0 (Ethernet) RX packets 40709 bytes 3013319 (2.8 MiB) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 38 […]
我有一个服务器作为主机(KVM),代理和防火墙。 为了访问这台主机上的虚拟机提供的服务, iptables必须工作以便正确地将数据包redirect到guest虚拟机。 服务器closures时会出现问题(即:重新启动或断电)。 当服务器再次启动时,端口redirect似乎不起作用(即:不能SSH到客户机或使用主机的redirect端口访问他们的服务)。 那时候,我可以通过SSH连接主机并validationiptables是否正在运行。 但是,我需要service iptables restart一切按预期工作。 为什么发生这种情况? 它与使用KVM有关吗? 我怎么能避免每次服务器closures时手动重新启动iptables ? 请注意,我不需要更改iptablesconfiguration以使所有内容都按预期工作,我只需要重新启动服务(就好像configuration没有正确应用或在某些时候被覆盖一样)。 UPDATE 在主机上: # chkconfig –list iptables 0:off 1:off 2:on 3:on 4:on 5:on 6:off 比较重新启动服务前后的iptables规则: PREROUTING链看起来完全一样。 INPUT链看起来非常相似。 唯一的区别是在重新启动之前,有一些重复的条目,但条目的顺序也是相似的。 POSTROUTING链看起来非常相似。 唯一的区别是在重新启动之前,有一些重复的条目,但条目的顺序也是相似的。 FORWARD链条看起来更加不同。 在重新启动服务之前,有一些重复的条目,但条目的顺序在更改前后发生更改。 以下是不同之处( PREROUTING链已被排除,因为在重新启动iptables之前和之后它看起来完全一样): 之前 Chain POSTROUTING (policy ACCEPT) target prot opt source destination MASQUERADE tcp — 10.0.0.0/24 !10.0.0.0/24 masq ports: 1024-65535 […]
我有一个可用的libvirt集群,为了执行一些并行操作,我重复了它。 目前,我的scheme如下所示:两个群集的VM定义完全相同,即相同的MAC,相同的IP但具有不同的标识符。 但是,每个群集都设置为不同的VLAN。 在每个集群(VLAN)内部,一切似乎都正常,从每个虚拟机我可以ping集群中的其他虚拟机,查看邻居等等。到目前为止,我通过virsh console访问不同的虚拟机 但是,当试图SSH每个单独的虚拟机,我得到以下错误: ssh: connect to host 192.168.0.1 port 22: No route to host 我的问题是:我怎么能ssh到不同的虚拟机IP是相同的,但位于不同的VLAN? 请记住,configuration理想情况下应该保持原样,也就是两个同样定义的群集,它们在每个群集所属的VLAN上唯一不同。
我有以下设置涉及两个KVM主机和每个虚拟机的客人。 客人通过[192.168.216.0/24]在两台主机上相互通信。 [192.168.216.42]通过交叉电缆连接到[192.168.216.41]。 [192.168.216.0/24]地址之间的stream量不应该逃到局域网上。 但是,我想从[192.168.216.25] ping [xyA2]: ISP ethx[xyA2/30] >—–< eth0[xyA3/30] | ISP GWAY | eth1[xyz1/24] >———-< | GWAY | | br0[xyz42/24] >———————————< | KVM2 | br0[xyz41/24] >—–< | KVM1 ~ br1[192.168.216.42] >—–X—–< br1[192.168.216.41] | KVM2 KVM1 | | | | >—–< eth1[192.168.216.21] | | >—–< eth1[192.168.216.25] | | eth1[192.168.216.221] >—–< | eth1[192.168.216.223] >—–< | […]
所以我有一个SSTP(本机Windows客户端)在某种意义上工作正常。 我的Windows客户端的本地IP是192.168.10.11,所以它的本地networking是:192.168.10.x 远程VPN服务器位于路由器后面,其IP地址为192.168.12.109 当我从Windows客户端连接到VPN服务器时,它通过端口443使SSTP VPN连接正常,然后我可以从Windows客户端ping 192.168.12.1。 我甚至可以连接到http://192.168.12.1并login到控制VPN服务器LAN的路由器。 我可以ping和连接到VPN服务器的本地局域网上的任何其他服务器/ PC,即192.168.12.x从我的Windows虚拟专用networking客户端,它的IP为192.168.12.110 问题是,从Windows VPN客户端,我不能ping 192.168.12.109这是VPN服务器的真正的内部IP地址。 此外,VPN服务器也无法ping 192.168.12.110。 我testing过防火墙问题,禁用所有的防火墙,没有任何区别。 一些相关的细节:VPN服务器:更好的VPN VPN服务器:虚拟机运行在qemu-KVM下,主机有br0桥接networking。 看了一些post后,我在kvm主机上做了一个ifconfig eth0 promisc来启用混杂模式,但是没有什么区别。 但是我还没有“重启”运行centos的主机或libvirt kvm“虚拟机”。 我没有在Softether VPN服务器上启用“SecureNAT”。 我用eth0(在运行vpn服务器的kvm虚拟机中的接口)创build了一个“本地网桥”。 对于VirtualHUB,我还禁用了“ManageOnlyPrivateIP”设置,并将其设置为0,这样我的VPN客户端将被提供192.168.12.x的IP地址。 否则,我认为它会从VPN服务器获得192.168.30.10。 (奇怪我只是把这个值回到默认值1,我的VPN客户端仍然从vpn服务器获得192.168.12.110) 当我查看Windows VPN客户端上的VPN连接详细信息时,奇怪的是无法获得VPN服务器的真实IP。 它说它的1.0.0.1一些假的虚拟ip。 我读过的地方可能是VPN服务器会给自己在192.168.12.x范围内的另一个任意的IP地址(希望不是192.168.12.1这是在VPN服务器的本地局域网上的ROUTER LAN IP)。 无论如何,从我读了它不可能知道什么IP地址在192.168.12.x范围内这个软件VPN服务器将分配自己,因为它隐藏其VPNnetworking堆栈,即你不能看到ppp0等ifconfig像你将与strongswan openswan等IPsec l2tp,我已经使用成功(并且仍然在其他服务器上使用)。
有没有一个标准,如何build立一个服务器主机上的networking将有虚拟服务器内? 在过去,我使用了virtualmin,并设置了eth0:1 eth0:2等多个别名,并将任何ip链接到每个别名,但通常我们通过一个IP路由所有的网站。 现在我们切换到一台KVM,在这台KVM上虚拟化每个子服务器上的物理硬件,而不是虚拟化一台新的机器/服务器。 而每个子服务器内都有一个virtualmin安装。 我不太熟悉这种types的分层,我想知道networking的最佳做法是什么。 我只想着这三条路线,但是想要推荐什么是一般的“事实上”标准。 我想到的第一种方法是每个虚拟化服务器只需要将其各自的IP请求到主机的路由器。 就像是: 我认为专业人士会认为每个服务器都有自己的IP,只要被跟踪,就不会出现问题。 (我们将从上到下pipe理这些服务器,这些都是供我们使用的,所以我不担心,因为没有第三方可以改变networking。) 可以肯定的是,我有4个或更多的防火墙/服务器维护的潜力,但是这是正常运营的一部分,而且这个时期也是不可避免的。 我的第二个想法是有一个类似于我在我的笔记本电脑上的虚拟化路由器(PFSense)和笔记本电脑中的所有虚拟计算机(包括笔记本电脑本身)连接到路由器的设置。 我在这里看到的专家是一个集中的防火墙 我在这里看到的缺点是防火墙设置很容易搞砸。 虚拟服务器已经有csf + lsd + iptables如果物理主机没有备份networking连接到networking,并且由于某种原因,PFSense不能启动,那么这个盒子就会失去连接,因此服务器closures,需要实际访问位于同一位置的服务器场。 最后,虽然目前我还不太确定该怎么做,但我想这与给eth0:1和eth0:2是相似的,我可以让主机从共同位置获取所有可用的ip,然后主机分配每个服务器自己的线路连接到它的IP地址。 这就是我想到的,但是我有点太缺乏经验/缺乏对自己的信心,没有得到实际上已经做到这一点的人的反馈,只是去执行这些计划。
我有一个辅助硬盘,我想用作我的KVM主机的存储池。 这里是我用来创build存储池的xml文件, <pool type='disk'> <name>guest_images_disk</name> <source> <device path='/dev/sdb' /> <format type='gpt' /> </source> <target> <path>/dev</path> </target> </pool> 这是创build和启动存储池后的pool-info输出, Name: guest_images_disk UUID: 779b1ad8-093f-4c7f-a32e-4d120101088b State: running Persistent: no Autostart: no Capacity: 931.51 GiB Allocation: 931.51 GiB Available: 992.50 KiB 正如人们所看到的,即使认为我的硬盘中只有一个分区,KVM也不能提供整个分配的空间。