我想使用KVM在RHEL 7.1上创build一个域(guest机器)。 域正在被定义,但是当我启动它时,它显示以下错误:virsh#start vm-1错误:无法启动域vm-1错误:未能检索接口的文件描述符:传输端点未连接 主机(RHEL 7.1)上安装有一个网桥,该网桥是客机的接口。 出了什么问题?
我在gentoo上安装virt-manager(或者qemu / libvirt)时遇到了问题。 Debian Jessie上安装了我的virt-manager: 在那里我有IO节stream,但不是在我的Gentoo上: 我试图在谷歌search,但我没有发现没有什么有用的gentoo。 每个人都知道我还需要做什么才能拥有这个选项? 我的内核: cat /usr/src/linux/.config | grep CGROUP CONFIG_CGROUPS=y CONFIG_CGROUP_DEBUG=y CONFIG_CGROUP_FREEZER=y CONFIG_CGROUP_PIDS=y CONFIG_CGROUP_DEVICE=y CONFIG_CGROUP_CPUACCT=y CONFIG_CGROUP_HUGETLB=y CONFIG_CGROUP_PERF=y CONFIG_CGROUP_SCHED=y CONFIG_BLK_CGROUP=y # CONFIG_DEBUG_BLK_CGROUP is not set CONFIG_CGROUP_WRITEBACK=y CONFIG_NET_CLS_CGROUP=y CONFIG_CGROUP_NET_PRIO=y CONFIG_CGROUP_NET_CLASSID=y 我的坐骑: mount | grep cgroup tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755) cgroup on /sys/fs/cgroup/systemd type cgroup(rw,nosuid,nodev,noexec,relatime,xattr,release_agent=/usr/lib/systemd/systemd-cgroups-agent,name=systemd) cgroup on /sys/fs/cgroup/debug type cgroup (rw,nosuid,nodev,noexec,relatime,debug) […]
为了理解为什么我们的一些工作负载在数据库相关活动中产生了非常差的“用户体验”,我正在进行大量testing。 我们有一个带有B140i控制器的dl160g9服务器(4个LFF磁盘7.2k rpm)。 主机为centos 7 ,虚拟化引擎为kvm ,版本号为105.el7_2.4 (1.5.3)。 磁盘是由b140i控制器生成的虚假raid 5上的厚LVM卷 。 调整是为了执行 (设置为虚拟客户端并没有太多变化)。 我们同时运行win和linux虚拟机 。 在任何情况下, 存储都是本地的 , 通过virtio和cache = none和io = native连接到VM。 由于我们的db文件很小,我正在模拟工作负载: iozone -i 0 -i 8 -s 4m -t X 其中X是1(简单情况)或25(实际用户基数) 。 这些是主持人的结果: Children see throughput for 1 mixed workload = 1768421.25 kB/sec Parent sees throughput for 1 mixed workload = 293368.05 […]
放弃 这确实是这个线程的延续。 由于目标已经慢慢转移,所以我开了一个新的问题,所以我认为开新帖是件好事。 如果需要,我会合并回去。 build立 带有B140i软驱控制器的HP DL160g9服务器 4 LFF 7.2K RAID-5 Centos 7.2上有来自centos virt sig的kvm和qemu。 规格与以前的post不变。 所有的虚拟机存储在服务器上都是本地的 所有NIC和提供的VHDD都通过virtio(virt-scsi)传递,caching是none,io是本地的。 所有虚拟机都有2个VNICS:一个暴露在局域网内,一个内部到服务器(默认的libvirt NATnetworking) 经过testing的系统 linux主机(作为参考) 本地linux虚拟机 本地Win8.1和Win10虚拟机(64位) 远程win10 64bit专业工作站 通过virtualbox在这样的WS上运行的远程linux虚拟机 通过virtualbox运行在这样的WS上的远程win8.1 64bit专业版VM 经过testing的存储types 为了理解为什么Win10 / 8.1 pro 64bit在KVM下非常糟糕,我们尝试了一些testing。 磁盘性能衡量: iozone -i 0 -i 8 -t 1 -s 4m 当然,testing是从目标存储设备的文件夹中运行的。 以下不同的configuration已经过testing: 准备一个LVM思考卷作为virtio scsi驱动程序传递给linux和windows VM。 在其上运行iozone:testing本地linux和windows虚拟机。 对虚拟和物理LAN上提供的iscsi目标使用与块设备相同的LVM密集卷。 这次虚拟机启动了,我们已经从正在运行的虚拟机中手工添加了iscsi目标,而不通过kvm / libvirt。 […]
我目前有一个虚拟机设置,只有less数“特殊”的虚拟机被允许有面向外的IP地址,其余的不是。 它们都configuration了两个连接到通过libvirtconfiguration的虚拟桥(virbr0)的接口。 这是为了确保他们有适当的IP和主机名。 我想build立虚拟networking,通过外部networking在这些专用networking上路由stream量,这样连接到eth0的br0上的virbr0被连接到eth0。 我需要这个,所以所有的虚拟机都可以访问我们在NIS上的文件系统。 我有一些麻烦让我的非特殊虚拟机获得任何types的外部networking访问,并没有发现任何关于这个特定用例的文档。 这里是我的networkingconfiguration的相关位: <network> <name>default</name> <uuid>0f4f4cc4-685d-4d01-9b14-e9b851b5b750</uuid> <forward dev='br0' mode='nat'> <interface dev='br0'/> </forward> <bridge name='virbr0' stp='on' delay='0' /> <mac address='52:54:00:84:f2:a4'/> <domain name='domain.company.com'/> <ip address='10.0.122.1' netmask='255.255.0.0'> <dhcp> ………… 我已经玩了一下,但没有运气访问我们的networking上的其他机器,甚至像谷歌。 思考?
我们看到一个虚拟机的情况下挂着以下症状: 平均负载800,进程停滞,CPU 100%在iowait 读文件工作,写文件挂起系统 RAM利用率很高,但在系统正常工作时预计会如此 / var / log / messages不会显示任何可疑内容:没有内核崩溃,没有OOM kill,但是我们有一些内核堆栈跟踪,比如任务被阻塞超过120s,并且存储相关的堆栈跟踪。 虚拟机监控程序显示虚拟机在CPU利用率方面几乎空闲。 重新启动系统是使其重新工作的唯一方法。 dmesg提示内核任务的堆栈跟踪在io_write / sync syscalls中挂起超过120秒 pipe理程序是Oracle Enterprise Linux 7.2,VM是CentOS 6.6。 它正在运行一个jboss设备。 块设备是virtiotypes的。 qcow驱动器在虚拟机pipe理程序上本地托pipe在SSD中。 我们怀疑在文件系统 – >块设备 – > virtio层有问题。
我正在build立一个KVM环境,通常我认为这个networking已经build立起来了。 我很难从虚拟机获取公共IP。 节点和虚拟机正在运行CentOS 7 这是目前的状态: VM: 5.5.5.5 -> IP on physical node: 5.5.5.3 (pingable) VM: 5.5.5.5 -> Neighbouring physical node: 5.5.5.2 (pingable) VM: 5.5.5.5 -> Outside IP: 8.8.8.8 (network unreahable) Physical Node: 5.5.5.3 -> VM: 5.5.5.5 ( Destination Host Unreachable ) Physical Node: 5.5.5.3 -> Outside: 8.8.8.8 (pingable) Outside -> Physical Node: 5.5.5.2 (pingable) 我已经在eth1绑定的物理节点上的br1上configuration了5.5.5.0/28范围。 […]
当我尝试连接xen-vm到kvm的转换时,看到错误连接。 我用virt-manager没有问题。 看到的错误: [root@localhost ~]# virt-v2v -v -x -ic "xen+ssh://10.61.0.47" "LAC-Venu" -o local -os /vm-images/ virt-v2v: libguestfs 1.28.1 (x86_64) [ 0.0] Opening the source -i libvirt -ic xen+ssh://10.61.0.47 LAC-Venu input_libvirt_xen_ssh: source: scheme xen+ssh server 10.61.0.47 libvirt: XML-RPC error : End of file while reading data: sh: nc: command not found: Input/output error virt-v2v: error: internal […]
我有一个主机服务器运行Centos 7和KVM虚拟化。 我创build了一个也运行Centos 7的客户端,并且完美地工作。 但是,因为我的主机服务器没有太多的空间留在驱动器上,我添加了第二个驱动器,在主机上我键入virsh attach-disk centos7.0 /dev/sdb1 vdb ,现在我的客户服务器上,我可以看到第二个新的驱动器。 现在将这个新驱动添加到/dev/centos/root的/ mount下,我做了以下操作: pvcreate /dev/vdb<BR> vgextend centos /dev/vdb lvextend -L+250G /dev/centos/root yum install xfsprogs.x86_64 –assumeyes xfs_growfs /dev/centos/root 注意: 我的LV叫做centos 我必须使用这个xfs,因为centos 7使用xfs而不是ext3或4 一切都很好,我有250多GB的空间给我的/装载。 我重新启动来宾服务器,它仍然很好! 但是,一旦我重新启动主机服务器,并尝试引导到访客服务器,服务器启动到紧急模式,出现以下错误: buffer i/o error on device dm-2 logical block 73145654 任何帮助将不胜感激!
我试图添加三个接口到一个KVM客人(我的托pipe服务提供商要求),并有一点运气! 我一次只能得到一个工作的客人。 如果我在nmtui启用了一个适配器,而禁用CentOS 7 guest上的其他适配器,它将工作,但其他适配器将不再ping通。 我相信我对桥接工程的理解存在一些问题,并希望得到一些指导。 目标:在主机上设置网桥,在客户机上设置三个接口(服务器提供商分配MAC地址供我使用) 信息: xxx.yyy.107.27 – assume main IP address of the Host machine xxx.yyy.107.1 – gateway for the above 255.255.255.192 – netmask for the above xxx.yyy.168.170 – IP address #1 for Guest xxx.yyy.168.171 – IP address #2 for Guest xxx.yyy.168.174 – IP address #3 for Guest xxx.yyy.168.169 – Gateway for […]