这听起来有点偏执,但我真的怀疑,我configuration的libvirt + kvm在debian中使用任何硬件加速。 我用这个指南来设定它。 事实上我已经检查过,kvm-intel模块肯定会被加载。 但是以freebsd为例,我有这么大的延迟,例如:安装OS,用csup提取端口树,当然编译端口也是如此。 该机器上的资源非常大:4个cpu核心和4个ram。 我可以确认,我在debian上用proxmox设置了相同的设置,然后在同一台机器上手动设置libvirt。 所以我知道客人的速度有多快。 所以,这对于硬件问题是毫无疑问的,我的意思是OVH托pipe状态:Intel Core i5-2400 4×3.1 + GHz 6 Mb L2 – QPI 5 GT / sec,虚拟化是: VT指令 所以正如我所说,这个设置工作之前。 唯一可能的是,我错过了内核模块的configuration,但是kvm-intel被加载了,我的朋友检查了libvirt也使用了它。 所以请告诉我我做错了什么,也许指导给错误的步骤..? 也许freebsd的客人不支持的东西? 如果你需要一些额外的信息,请写评论。 也许值得一提的是,我已经更新了内核,因为已经完成了debian的新安装(在主机上)。 也许加载模块找不到与内核有关的东西..无论如何,我真的很困惑接下来做什么。 这个configuration被用来创buildvm: # virt-install –connect qemu:///system -n bsd -r 4096 –vcpus=2 –disk path=/home/vm/hdd/bsd.img,size=100 -c /home/vm/iso/FreeBSD-8.2-RELEASE-amd64-disc1.iso –vnc –noautoconsole –os-type unix –os-variant freebsd7 –accelerate –network=bridge:br0,mac=02:00:00:a7:66:32 –hvm […]
我已经在CentOS 6.3上安装了带有DRBD的Ganeti,并增加了一些节点。 不过,现在我面临着在其上安装Centos访客/实例的下一个挑战。 我尝试使用ganeti-instance-image,但它似乎没有ISO安装。 我尝试了https://code.osuosl.org/projects/ganeti-image/wiki/HOWTO_-_Ganeti_Instance_Image的步骤,但没有为我工作。 我知道在ganeti页面有大量的文档,但是其中大部分都是用于xen / Debian destro。 默认的debootstrap也是为Debian实例安装而devise的。 如果有人可以帮我安装一个Centos实例的工作步骤(白痴指南) ISO映像 导入现有的qemu图像文件(qcow2 / img / raw) 使用实例图像项目安装Centos。 到目前为止,我一直在使用KVM / DRBD进行虚拟机pipe理。
在基于KVM的VPS上,我使用的是运行Ubuntu和各种Web服务,而且我每天遇到几次数据库访问似乎比平时慢得多的高峰。 有没有什么办法可以检查在同一硬件上的其他VPS是否突然使用了大量影响我的VPS的资源? 或者是我的VPS完全没有注意到它的外部环境,所以不可能检测到那里发生了什么,以及它如何影响我的VPS?
https://access.redhat.com/site/security/updates/backporting/?sc_cid=3093 http://froginapan.blogspot.com/2012/07/redhats-backporting-activity.html 正如上面的两个链接所暗示的,只有安全补丁和某些选定的“新”特性和function也被反向移植。 我的问题是关于qemu-kvm和libvirt。 如果有人确切地知道这些软件包与他们的“原始”版本相比有多先进/改进,请分享。 rpm -q –changelog qemu-kvm …显示了许多后端/补丁,但我不知道是否新的function也一致添加..也许是一个谁是更紧密地跟随qemu-kvm发展知道…
由于一些基于Windows的专用服务器的局限性和昂贵的优惠,我考虑租用Linux服务器,甚至在该服务器上运行多个虚拟机。 我想过使用KVM,但是在命令行中设置和运行新的虚拟机并不是一件简单的事情(不难,只是点击次数不多)。 我可以访问一个OpenStack集群,部署新机器真的很容易,所以我的同事也可以做到这一点。 问题是,现在我们只有一个租用服务器,而这些服务器只有一个物理networking。 我find了一个脚本,可以在一台机器上build立所有的OpenStack服务( https://github.com/ilearnstack/cloudgear ),但这样做有用吗? 或者我应该直接坚持使用KVM,因为无论如何我只能在拥有5-10台虚拟机的第二台机器上使用最多1台,而OpenStack的开销会太大? 还是像virt-manager这样的在线工具? 这种创build和运行虚拟机的方式也将被简化。
我们的环境将有一个KVM主机设置dynamic使用kickstart(很简单)。 最困难的部分是处理networkingconfiguration,并保持VLANconfiguration(以及可能的网桥/主机configuration)在重新启动时保持不变。 我们有一个dynamic的环境,我希望能像configuration典型的交换机那样configuration虚拟交换机端口,在交换机重启后configuration保持不变(可能会自动添加到configuration文件中) 又名: 思科:交换机端口模式访问; 交换机端口访问VLAN 4 锦缎:vlan 4; 无标记的e 0/1/2 我不确定这个“正确的”决定是什么,openvswitch是否正在寻找它可以完成使用linux网桥和libvirt。 我很迷茫,很难find可用的东西。 我知道OpenStack可以做到这一点,对我来说,虽然知道OpenStack如何做,所以我们可以实现它的部分 所以我的问题是什么是在KVM上坚持vlan /networkingconfiguration的最好/最简单的方法?
我的设置: 此设置中只有一台物理机器,即具有两个networking适配器的虚拟机主机系统(VM)。 一个NIC(eth0)连接到内部networking(LAN子网,例如10.xxx/24),并用于内部通信。 另一个NIC(eth1)连接到公共互联网(它具有configuration的公共可路由IP)。 这个连接将被用于端口转发公共互联网stream量到虚拟机的内部IP(传入stream量),并允许虚拟机通过NAT访问公共互联网(传出stream量)。 虚拟机使用LAN-Subnet中的IP地址(10.xxx/24,与eth0相同) 我已经为虚拟机(vnet0,vnet1,…)和LAN-NIC(eth0)的虚拟networking接口configuration了桥接设备(br0)。 这意味着: br0在局域网子网(10.xxx/24)中有一个IP地址, eth0被添加到网桥 vnet0,vnet1,…(由VM使用)dynamic添加到网桥 问题 局域网内的通信工作正常。 此外,VM主机可通过公共IP访问,并具有互联网接入。 我的问题是允许虚拟机访问公共互联网的NATconfiguration。 我尝试使用一个简单的(S)NAT规则: iptables -t nat -I POSTROUTING -s 10.xxx/24 ! -d 10.xxx/24 -j SNAT –to-source yyy102 而yyy102是第二个NIC(eth1)的公共可路由IP。 我发现我需要启用“ip_forward”和“bridge-nf-call-iptables”: echo 1 > /proc/sys/net/ipv4/ip_forward echo 1 > /proc/sys/net/bridge/bridge-nf-call-iptables 否则桥接的包不会被iptables处理。 现在来自虚拟机的数据包似乎经历了以下的iptables连锁: “FORWARD”(正规) – 我接受他们(-j ACCEPT,柜台上升) “PREROUTING”(NAT) – 我接受他们(政策ACCEPT,柜台上升) “POSTROUTING”(NAT) – 它们符合SNAT规则 但不是所有的数据包似乎到达PRE / POSTROUTING出于任何原因,我无法弄清楚到目前为止。 […]
我昨天买了一张proxmox牌照。 所有的工作都很好,只有networkingconfiguration非常复杂。 我的networkingconfiguration: 84.200.50.186 -> hostsystem ip 84.200.50.186 -> VM ip 255.255.255.248 -> netmask 84.200.50.185 -> gateway auto eth0 iface eth0 inet static address 84.200.50.186 netmask 255.255.255.248 gateway 84.200.50.185 auto vmbr0 iface vmbr0 inet static address 84.200.50.187 netmask 255.255.255.248 gateway 84.200.50.185 bridge_ports eth0 bridge_stp off bridge_fd 0 该IP能够ping通,但虚拟机没有连接到互联网。 有任何想法吗? 🙁
自从我做yum更新并尝试创build一个新的(例如)10GB磁盘KVM VPS后,虚拟机内部报告的磁盘空间被locking为初始模板大小(对于linux模板通常为1GB)。 通常它应该是10GB(fdisk是这样说的,但是df命令是这样说的)。 [root@localhost ~]# resize2fs /dev/vda1 resize2fs 1.41.12 (17-May-2010) Filesystem at /dev/vda1 is mounted on /; on-line resizing required old desc_blocks = 1, new_desc_blocks = 1 Performing an on-line resize of /dev/vda1 to 262160 (4k) blocks. The filesystem on /dev/vda1 is now 262160 blocks long. [root@localhost ~]# df -m Filesystem 1M-blocks Used Available Use% […]
对于新function,我最近将qemu-kvm 1.5.3更新为qemu 2.5.0,但是我看到了几个qemu二进制文件/usr/local/bin/qemu-x86_64和/usr/local/bin/qemu-system-x86_64 。 看来qemu-system-x86_64是模拟器程序,因为libvirt不会识别qemu-x86_64 。 那么qemu-x86_64是什么? 而根据这个qemu文件 : 用于x86的qemu-kvm fork(已弃用,现在使用上游的QEMU) 看来qemu正在取代qemu-kvm。 但是如果使用qemu而不使用qemu-kvm,guest虚拟机CPU是否仍然由KVM提供? 如果不是这样,表演会更糟糕吗?