Articles of kvm虚拟化

如何以简单的方式为libvirt + KVM + ubuntu-server创build桥接虚拟networking?

我看到很多关于如何手动设置网桥的文档,然后手动将vm的tun设备添加到这些网桥,然后编写一个shell脚本,将它粘在一起。 很多的工作,非常手动,并不令人印象深刻。 另一方面,如果你想使用NAT到KVM + libvirt虚拟机到networking,你只需点击virt-manager gui中的新networkingbutton,放松一下。 我错过了让虚拟机与主机共享物理networking的“简单方法”吗?

虚拟Macines在RHEL6中

我们可以在RHEL6中创build虚拟机,每个虚拟机都有静态IP,并且可以独立于其他networking并且不使用网桥。

KVM虚拟化主机从RHEL 5升级到RHEL 6

我有在CentOS 5.5主机上运行的Linux KVM客户机。 这些客人通常也运行CentOS 5.5。 现在我将有一个RHEL 6集群。 我需要将这些guest虚拟机迁移到RHEL 6群集。 我不需要像客户的计算环境那样升级客户的操作系统,以保持完整。 我使用iSCSI RAID来访客存储。 如果我将iSCSI目标映射到RHEL 6群集,这些访客是否可以不用更改? 或者我需要做一些事情来使他们工作?

Linux-KVM / iptables:通过在桥上匹配ip + mac地址来防止客人欺骗?

我有一个标准的br0网桥设置我的KVM客人: auto br0 iface br0 inet static address 192.168.1.117 netmask 255.255.255.0 network 192.168.1.1 broadcast 192.168.1.225 gateway 192.168.1.1 bridge_ports eth0 bridge_stp off bridge_fd 0 auto eth1 iface eth1 inet static address 10.0.0.117 netmask 255.255.255.0 gateway 10.0.0.1 broadcast 10.0.0.225 eth1保留给其他stream量,但客人可以简单地改变它的IP连接到它。 我试图实现的是,一旦访客尝试更改其IP地址或MAC地址(尝试join另一个networking/欺骗另一个访客),则将所有stream量都丢弃到主机/外部/其他客户端, 我尝试了很多接口(eth0,br0,tap0,tap +),但我似乎无法得到我的规则: iptables -A INPUT -m physdev –physdev-in tap+ –physdev-out tap+ -s 192.168.1.205 -m mac ! […]

Windows XP来宾问题

我已经安装(痛苦 – 近6小时,虽然我已经做了CD启动acpi技巧 )Windows XP SP2作为kvm客人。 但是,networking性能非常糟糕(〜200 kbps,小突发高达2 Mbps)。 无论使用什么types的网卡,无论是virtio还是虚拟机pipe理程序默认的rtl8139,有时我得到一个win32host错误和ics(Windows防火墙和互联网连接共享)服务崩溃,日志中没有任何解释(访问被拒绝) – >系统不稳定。 这个问题发生在SP2和不同的SP3安装上,所以我认为这是一个虚拟化问题。 主机是Debian Squeeze(内核从squeeze-backports升级到2.6.38,这对guest虚拟机性能有所帮助),kvm和libvirt都从sid存储库升级到最新版本。 物理机器是HP G120服务器。 我已经在几个地方看过,Windows XP可以在kvm下运行,但是我想听听“Windows XP下kvm”的成功故事,性能接近VMWare 2 / ESXi guest,或者任何提示可以指导我正确的方向。 lsmod | grep kvm kvm_intel 49947 3 kvm 263288 1 kvm_intel dpkg -l | grep kvm ii kvm 1:0.14.1+dfsg-2 dummy transitional package from kvm to qemu-kvm ii qemu-kvm 0.14.1+dfsg-2 Full virtualization […]

在HostOS上为虚拟机设置反向代理

我目前正在安装由虚拟化主机(Ubuntu上的kvm)和7个虚拟机组成的服务器,其中一些运行MySQL和LDAP,另一些运行不同的Web服务器和Web应用程序。 运行数据库的虚拟机只能由同一台物理服务器上的其他虚拟机查询。 networking服务器虚拟机将运行10-20个网站和webapps。 服务器将被放置在数据中心,直接连接到互联网。 我的想法是使用主机和虚拟机之间的NATnetworking(在内部形成一个局域网),并为HostOS分配公共IP地址。 HostOS将运行防火墙(使用iptables)并将networkingstream量分配给虚拟机。 虚拟机最初将完全从外部屏蔽掉,因此在这个scheme中不需要在任何一个虚拟机上都具有全function的防火墙。 另外,我只需要一个公共IP地址。 我必须支付额外的IP地址,我不能超过5。 我想我可以在HostOS上使用反向代理,根据请求的主机名在VM之间分配stream量。 我的问题是双重的: 这是一个安装hostOS和虚拟机的好方法吗? 或者反向代理会使服务器变慢? 我是否应该只使用桥接networking(由大多数消息来源推荐),接受我所有的虚拟机都直接暴露在外,并据此采取措施? 什么是在hostOS上运行的好的反向代理。 我听到有关HAproxy的好消息。 我已经设置了mod_proxy之前(在一个完全不同的情况下),但我听到大多数人更喜欢HAproxy。 还是我需要一些占用空间最小的超轻量级反向代理,因为它不会太慢地降低hostOS的速度?

NFS和KVM。 速度慢

我在Debian有两位客人(Debian和Windows 2008)的KVM virtualization 。 我想共享一个“挂载点”,可以同时访问3个系统(主机和2个guest虚拟机)。 所以我唯一发现的是NFS/SMBnetworking存储。 我select了NFS 由于我的以太网networking(10/100),我在3系统之间访问/传输文件之间的速度平均为8〜10MB / s。 重点是如果有机会获得升级系统在3系统(同时)之间共享文件,而不浪费我的SATA磁盘的速度。 我的意思是,没有10 MB / s的以太网限制 auto eth0 iface eth0 inet manual auto br0 iface br0 inet static address aaa.bbb.ccc.xxx (public ip1) netmask 255.255.255.0 network aaa.bbb.ccc.0 broadcast aaa.bbb.ccc.255 gateway aaa.bbb.ccc.254 (ISP gateway) bridge_ports eth0 bridge_fd 9 bridge_hello 2 bridge_maxage 12 bridge_stp off eth0是我的物理接口,bridge和vnet+ VM的接口 # brctl […]

设备通过KVM错误

我正在运行以下命令,引导一个Debian live CD通过主机PCI设备作为testing并将KVM错误传出; kvm -m 512 -boot c -net none -hda /media/AA502592502565F3/debian.iso -device pci-assign,host=07:00.0 PCI region 1 at address 0xf7920000 has size 0x80, which is not a multiple of 4K. You might experience some performance hit due to that. No IOMMU found. Unable to assign device "(null)" kvm: -device pci-assign,host=07:00.0: Device 'pci-assign' could not be […]

qemu-img:无法打开$ FILE

我收到了供应商提供的单个文件VMDK,该VMDK具有用于我感兴趣评估的特定产品的虚拟设备。 我们运行KVM解决scheme(Proxmox),所以我试图转换文件,但在该系统qemu-img爆炸。 (我能够毫无错误地从bitnami转换(multipart)VMDK文件。) 所以我想我只是在RHEL 6.3虚拟机上安装qemu-img,然后在那里安装。 但是,尽pipe我运行qemu-img的时候,我可以将这个文件很好的归档,但是我得到了这个错误,它无法打开这个文件: [root@host dir]# file 1.vmdk 1.vmdk: VMware4 disk image [root@host dir]# qemu-img info 1.vmdk qemu-img: Could not open 'vmdk' 我看到其他一些人在互联网上发布了他们有这个问题,但他们似乎没有一个解决scheme。 有没有人有任何想法? 我已经检查了MD5SUM。 EDIT1: [root@host dir]# qemu-img info -f vmdk 1.vmdk qemu-img: Could not open '1.vmdk' EDIT2: 冉strace每个build议。 不知道该找什么 这是一个可能的: ioctl(3, CDROM_DRIVE_STATUS, 0x7fffffff) = -1 ENOTTY (Inappropriate ioctl for device)

proxmox KVM通过多个公网IP路由networking

我有一个hetzner专用主机。 另外我买了一个6IP子网。 我的主要IP是:148.111.111.200我的主要子网是:255.255.255.224 我的额外IP是148.222.222.1到148.222.222.6。 我的使用场景如下:几个实例将面向公共IP(networking服务器等)所有的实例将有一个内部局域网的第二个nic安装,所以我可以在外面的专用networking上lockingmysql服务器,memcached等。 networking服务器将在148.222.222.1联机,并将有第二个网卡与IP 10.10.10.10 目前,我已经安装了内部局域网。 所有的实例都可以通过内部IP(10.10.10.X)相互连接和ping,但是我的networking服务器无法连接到互联网。 我不能使用桥接模式,因为hetzner不允许多个MAC在同一个外部IP,所以我不得不使用路由模式。 这是我的/ etc / network / interfaces文件的主机: # network interface settings auto lo iface lo inet loopback auto eth0 iface eth0 inet static address 148.111.111.200 netmask 255.255.255.255 pointopoint 148.111.111.193 gateway 148.111.111.193 broadcast 148.111.111.223 post-up echo 1 > /proc/sys/net/ipv4/conf/eth0/proxy_arp #commentedout #up route add -net 148.111.111.192 netmask 255.255.255.224 […]