Articles of kvm虚拟化

IO速度虚拟图像vs物理?

我打算构build一个持续集成服务器(现有的太慢)。 我的计划是在KVM上运行多个操作系统来testing我们的应用程序。 该结构将是具有6个CPU核心和3个硬盘驱动器的单个物理机器,一次运行3个KVM实例。 我计划运行每个操作系统与2GB的RAM,2核心,并从一个独特的磁盘(每个磁盘有一个所有图像的副本)。 我能从这个架构中得到什么好处吗? 特别是IO? 虚拟机映像与运行2核心和2GB内存的物理系统之间的IO性能差异有多大? 将专用磁盘做出任何明显的区别?

设置KVM guest虚拟机的CPUcaching大小和模型

是否有可能为KVM Linux客户机创build自定义CPU模型,或者至less修改caching大小和型号名称等参数? 我知道我可以设置CPUfunction,拓扑和固定,并从一个可用的模型中select。 问题是有英特尔至强X7560 CPU 24caching每个caching,我什至不能find任何东西,甚至非常相似。 我不确定它是否会对使用LAPACK,ATLAS等的计算速度产生巨大影响,但是用户可能期望在主机上看到与这些CPU相同的CPU。

在Proxmox上为KVM Windows来宾使用Vmware VGA驱动程序

我按照这个教程( http://www.linux-kvm.com/content/using-vmware-vga-kvm-windows-guests )使用Vmware VGA和KVM Windows Guest虚拟机。 vmware vga驱动程序安装在Windows上,但是我不能在Proxmox的界面中select“vmvga”。 我可以select“默认”,“标准VGA”和“Cirrus Logic GD5446”。 我试过命令“kvm”和“qm”,但什么也没有。

KVM虚拟化和瘦客户端

对于拥有1-2台服务器和20-40个最终用户的客户来说,这是一个可行的select,其中一些远程工作。 特殊性我一直在用KVM看红帽,但任何发行版都可以。 有没有任何指导,为瘦客户端设置和configurationKVM?

什么守护进程应该或可以禁用Linux虚拟机,特别是硬件相关的?

什么守护进程应该或可以禁用Linux虚拟机,特别是硬件相关的? 我想用KVM开发虚拟机,并在完成后将它们转移到coLinux。 有没有可以或应该删除的守护进程,尤其是那些假设它们在物理系统上运行的守护进程?

AMD Fusion GPU直通KVM或Xen

有没有人在Linux虚拟机pipe理程序之上成功地获得了AMD Fusion APU的GPU部分(E-350是我的目标)的工作? IE,我想把GPU专用于一台虚拟机,不包括所有其他的虚拟机和主机。 我知道PCI直通可以用于Xen和KVM的补丁/内核重build。 但是,由于GPU在同一个芯片上,我不知道主机操作系统是否会将其视为PCI。 我知道这里有一些切线问题,例如: 目前Linux下的Fusion Fusion驱动程序不佳 不成功的修补工作似乎很常见 VT-d / IOMMU是必需的,并且(从我的阅读中)支持APU,但主板可能不提供 KVM似乎不支持主显卡,只有副显卡( 在这里描述) 不过,我想听听任何与此有关的人,甚至是失败的尝试。 Fedora + KVM是我的首选虚拟化平台,但如果它有所作为,我愿意改变这一点。 编辑:目标是做一个Windows 7的客人(我知道这是要求很多)。 无论如何,只要假设这是HVM,而不是PV。

KVM桥接虚拟机不工作?

我目前正在为几个VM guest虚拟机设置一个KVM。 我创build了第一个,但我遇到了第一个问题: root@vm1:~# ping 8.8.8.8 PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data. From 88.140.40.50: icmp_seq=2 Redirect Host(New nexthop: 88.140.40.1) From 88.140.40.50: icmp_seq=3 Redirect Host(New nexthop: 88.140.40.1) 所以显然主机没有正确configuration? HOST – / etc / network / interfaces: auto lo iface lo inet loopback auto eth0 iface eth0 inet manual auto br0 iface br0 inet static address […]

网桥configuration发送stream量到外部交换机

我使用桥接networking在KVM / QEMU(RHEL 6.0)之上创build了3个虚拟机。 为eth1创build了一个桥梁,所有虚拟机都使用该网桥进行networking连接。 所有这些虚拟机具有相同的子网地址。 所有这些机器都能够相互ping通,因为桥接器负责这些机器之间的路由。 我试图实现的场景是,我不希望桥在这些机器之间进行路由。 我想要桥接器从这些机器发送所有的stream量到外部边缘交换机,让他做路由。 所以我有如何做到这一点的想法,但不知道这些将工作: 在NIC(eth1)上创build多个网桥,并将每台机器连接到同一个网卡上的不同网桥。 这样我希望它会发送stream量到外部交换机,但不知道如何照顾反向stream量。 AFAIK我们不能在单个NIC卡上创build多个网桥。 但是,如果有人知道的方式,请分享。 在网桥中configuration所有来自VM机器端口的stream量应该被引导到NIC到外部交换机的规则,并且传入的stream量可以按照通常的方式桥接来路由。 我也不确定这是否可行。 如果它可以做任何想法如何做到这一点? 不知道是否有任何其他方式的networking目前可用于实施这种情况。 请分享你的想法,让我知道如果你需要更多的信息从我身边。

Linux:为KVM添加虚拟接口

在CentOS服务器上, ifconfig显示几个vnetX接口(vent1,vent2,vent100),如何添加更多? (我想添加几个虚拟机,所以我需要添加一些可以分配给虚拟机的虚拟接口)。 另外,据我所知,这些vnetX接口是内部的,主机和虚拟客户之间,这是正确的?

在KVM下Hylafax + Ubuntu不可靠

我们在Xen虚拟机中安装了Hylafax 5.2.5 CentOS 5安装。 它工作得很好,但现在我正在升级/迁移到运行Ubuntu 10.04和Hylafax 5.5.1的KVM虚拟机(使用http://sourceforge.net/projects/hylafax/files/从源代码编译) hylafax%20debian%20build%20files / ) 我遇到的问题是,虽然接收工作正常 – 发送传真是非常不可靠的,但我得到了很多“没有反应MPS重复3次尝试”,或“传送干净的ECM图像数据失败”。 我使用的线路,调制解调器和configuration文件与以前一样,所以我认为这可能是一个KVM调度问题,但即使将cpu_shares设置为10240而不是1024也不会改变一个事物…还有什么可以我试试? 这是一个示例日志文件http://pastebin.com/cN01cpEs