Articles of libvirt

XFS / EXT4:为什么磁盘上的实际文件大小大于表观大小? 澄清

在XFS文件系统上运行KVM / qemu的CentOS 7.1.1503(3.10.0-229.el7.x86_64)系统上,我试图找出为VM磁盘映像文件添加额外空间的具体内容。 $ ls -ls –block-size=1k 15728648 -rw——-. 1 qemu qemu 15728640 Aug 8 07:50 original.img 15728640 -rw——-. 1 qemu qemu 15728640 Aug 8 08:25 original.imgcopied 2288960 -rw——-. 1 qemu qemu 15728640 Aug 8 09:36 original.imgsparsified 15728640 -rw——-. 1 qemu qemu 15728640 Aug 7 13:23 thickprov.img 0 -rw——-. 1 qemu qemu 15728640 Aug […]

Openstack仪表板上的noVNC控制台在RHEL7上呈现乱码UI

我在RHEL7上运行nova-compute。 OpenStack仪表板的noVNC控制台为具有UI控制台的任何实例呈现乱码UI。 有人可以帮忙吗? 这在RHEL65上工作得很好

KVM在Linux guest中的IO同步性能不佳

我使用libvirt和KVM在Ubuntu 15.04服务器中设置了虚拟化的Ubuntu 15.10 guest虚拟机。 存储在主机系统中: # mount | grep ext4 /dev/sda1 on / type ext4 (rw,relatime,errors=remount-ro,data=ordered) /dev/sdb1 on /media/hdd type ext4 (rw,relatime,data=ordered) / dev / sda是一个SSD, / dev / sdb是一个硬盘。 最初的configuration是使用virt-manager完成的。 问题: 来宾系统的总体性能似乎是好的,但是一些操作,使用apt-get(因此来宾系统安装)显着地安装软件包是非常缓慢的。 来宾磁盘映像是原始格式,我已经尝试将它放在SSD和HDD作为一个文件,也作为一个单独的硬盘分区。 不同的位置会对性能有所影响,但是使用apt-get安装某些软件包仍然比主机系统慢两到三倍。 我也尝试了各种qemu磁盘caching选项, 并使用不安全的caching似乎完全消除了这个问题 。 但是,任何其他caching设置(包括none和writeback)都performance出糟糕的性能。 当然,使用不安全看起来不是一个真正的解决scheme。 这里是从客户xmlconfiguration摘录: <disk type='block' device='disk'> <driver name='qemu' type='raw' cache='none'/> <source dev='/dev/sdb2'/> <target dev='vda' bus='virtio'/> <boot order='2'/> […]

Libvirt和USB Hub直通

我有一个虚拟机,我希望有一个USB集线器和所有的设备分配给一个虚拟机。 有问题的集线器是一个USB集线器,它本身插在主板/主要Linux集线器上的一个端口上。 我已经尝试了几种不同的方法,并没有find解决scheme。 我在Ubuntu 15.10主机上使用Libvirt。 我尝试过使用hostdev方法,并尝试将一个USB集线器从KVM主机传递给libvirt的guest虚拟机的代码行,但没有成功。 谢谢 – Ryan Walmsley

iptables / KVM转发端口

我有一个服务器与一个外部IP地址(例如1.2.3.4 )。 在该服务器上,我使用libvirt来运行虚拟机。 现在我想从外部通过ssh( port 1234 )访问我的主机上的虚拟服务器。 在我的主机系统上,我得到了一个连接到我的外部IP( 1.2.3.4 )的networking接口eth0 。 我的虚拟机通过一个名为virbr0的NAT接口连接到主机,IP地址为192.168.122.235 。 由于我需要转发一个端口,我做了以下与iptable iptables -t nat -A PREROUTING -p tcp -i eth0 –dport 1234 -j DNAT –to-destination 192.168.122.235:1234 iptables -A FORWARD -p tcp -d 192.168.122.235 –dport 1234 -m state –state NEW,ESTABLISHED,RELATED -j ACCEPT 对于基本的networking,我也得到了主机上运行的UFW允许port 1234 : Status: active Logging: on (low) Default: deny (incoming), […]

通过额外的公共IP访问访客虚拟机

我有一个CentOS专用服务器(Hetzner): IP:aa.bb.cc. 16 网关:aa.bb.cc.1 networking掩码:255.255.255.255 和额外的IP(安装了Debian的guest虚拟机(libvirt)): IP:aa.bb.cc. 61 网关:aa.bb.cc.1 networking掩码:255.255.255.192 我使用Hetzner文档( https://wiki.hetzner.de/index.php/Netzkonfiguration_CentOS/en#Routed_.28brouter.29 )设置了路由configuration。 主机configuration: cat /etc/sysctl.conf net.ipv4.conf.all.rp_filter=1 net.ipv4.icmp_echo_ignore_broadcasts=1 net.ipv4.ip_forward=1 net.ipv6.conf.all.forwarding=1 net.ipv4.conf.default.proxy_arp=1 net.ipv4.conf.all.send_redirects=0 net.ipv4.conf.eth0.send_redirects=0 net.ipv4.conf.br0.send_redirects=0 net.ipv4.conf.default.send_redirects=0 net.bridge.bridge-nf-call-ip6tables = 0 net.bridge.bridge-nf-call-iptables = 0 net.bridge.bridge-nf-call-arptables = 0 cat / etc / sysconfig / network-scripts / ifcfg-eth0 DEVICE=eth0 ONBOOT=yes HWADDR=XX:XX:XX:XX:XX:XX BOOTPROTO=none IPADDR=aa.bb.cc.16 NETMASK=255.255.255.255 SCOPE="peer aa.bb.cc.1" IPV6INIT=yes IPV6ADDR=2a01:4f8:yyy:yyyy::2/128 IPV6_DEFAULTGW=fe80::1 IPV6_DEFAULTDEV=eth0 […]

(CentOS 7上的KVM)无法使用单个NIC主机连接到Guest或反之亦然

我在Centos 7上有单个NIC Host,我想用KVM-Qemu进行虚拟化。 主办 主机IP是 192.168.1.110 和接口是enp0s31f6 我已经从libvirt中删除了“默认”的NATconfiguration。 然后我从virt-manager创build了2个接口, virsh网表 Name State Autostart Persistent ———————————————————- ext active yes yes int active yes yes virsh net-dumpxml分机 <network connections='1'> <name>ext</name> <uuid>99ea2f5d-8557-4141-9e90-0ac0619a6261</uuid> <forward mode='nat'> <nat> <port start='1024' end='65535'/> </nat> </forward> <bridge name='virbr2' stp='on' delay='0'/> <mac address='52:54:00:41:32:d9'/> <domain name='ext'/> <ip address='172.16.2.1' netmask='255.255.255.0'> <dhcp> <range start='172.16.2.128' end='172.16.2.254'/> </dhcp> </ip> </network> […]

OpenVSwitch与Libvirt

这是我的情况:我正在使用Openvswitch和Libvirt / Qemu运行CentOS 7。 我的域被configuration为使用虚拟端口typesopenvswitch,所以当我启动一个虚拟机时,它会在ovs桥中创build一个端口。 没有太复杂。 我的问题是,如果我重新启动虚拟机pipe理程序,事情似乎并没有按正确的顺序closures,当机器启动备份时,我得到过时的OVS端口。 a7c1e36d-26b5-43d8-a422-452b013c4009 Bridge "ovsbr0" Port "vnet1" tag: 46 Interface "vnet1" error: "could not open network device vnet1 (No such device)" Port "vnet0" tag: 41 Interface "vnet0" error: "could not open network device vnet0 (No such device)" Port "ovsbr0" Interface "ovsbr0" type: internal Port "bond0" Interface "bond0" ovs_version: "2.5.1" 如果我停止openvswitch服务,closures虚拟机,然后再次启动openvswitch,我可以复制这个。 […]

如何configurationDRBD到libvirt存储池?

我想将DRBD复制的存储(2个节点Active / Passive)公开为libvirt作为qcow2文件的存储池。 但是,我有以下错误消息: virsh pool-create-as qcow2 –type=logical –target=/dev/drbd1 error: Failed to create pool qcow2 error: internal error: missing backend for pool type 3 (logical) 如果我正在使用多path设备,那么它在libvirt环境中有0个容量。 root@astranode0:/home/frolo# virsh pool-create-as qcow2 –type=mpath –target=/dev/mapper/vg1-qcow2 setlocale: No such file or directory Pool qcow2 created root@astranode0:/home/frolo# virsh pool-info qcow2 setlocale: No such file or directory Name: qcow2 UUID: fa3b18a5-d849-43d9-86d2-96633367e8c7 […]

两个物理kvm主机与多个客人,私人networking

我有两个物理主机运行debian lenny kvm。 他们有一个networking连接到互联网和另一个互相交叉的networking,为了更快的私人networking。 在这个kvm主机上运行不同的来宾主机。 每个客人有一个公共IP和一个私人IP。 客人应该在kvm主机之间移动(迁移),并保留他们的私人IP地址。 我想有一个像私人隔离networking,但它应该跨越多个物理kvm主机。 我如何存档这个? 这可能吗? VPN? 桥? 点对点? 我没有任何线索!