我刚才提到我的proxmox系统在执行备份任务(bacula,而不是proxmox-backup-system)时会不时重新启动。 日志显示如下: Mar 8 02:30:01 proxmox-server kernel: [1922972.974633] audit: type=1400 audit(1457400601.487:129743): apparmor="DENIED" operation="ptrace" profile="lxc-container-default" pid=22456 comm="atop" requested_mask="trace" denied_mask="trace" peer="unconfined" Mar 8 02:30:01 proxmox-server kernel: [1922972.974665] audit: type=1400 audit(1457400601.487:129744): apparmor="DENIED" operation="ptrace" profile="lxc-container-default" pid=22456 comm="atop" requested_mask="read" denied_mask="read" peer="unconfined" Mar 8 02:30:01 proxmox-server kernel: [1922973.110758] audit: type=1400 audit(1457400601.623:129746): apparmor="DENIED" operation="ptrace" profile="lxc-container-default" pid=22532 comm="atop" requested_mask="read" denied_mask="read" peer="unconfined" Mar 8 […]
我在Ubuntu Server 10.04上使用KVM。 虚拟机正在LVM上运行。 我必须将它们中的一些迁移到Vmware服务器。我可以如何实现这一点? 我search了一些链接,但他们都谈论转换vmdk图像qcow左右。在这种情况下,我有LVM的操作系统。 我也看了一下qemu-img的man page,据我所知它应该在这个线程中做我所要求的。 但是,在这种情况下应该如何处理。因为它不是基于文件的映像(在LVM中运行的操作系统,该LVM中具有文件系统)。 所以我无法理解我应该怎样做才能达到这个目标。 我可以通过LVM的快照实现上述function,而不是closures虚拟机本身。
我有一个VM内的9p安装。 我使用savevm <snapshot>拍摄虚拟机状态的savevm <snapshot> ,停止虚拟机,然后使用该快照(使用kvm -loadvm <snapshot> )重新启动它。 当我尝试通过umount或ls ing与挂载进行交互时,VM挂在内核空间中。 我正在启动快照的完整命令行如下所示: qemu-system-x86_64 -nographic -monitor telnet::6440,server,nowait \ -m 1280M -balloon virtio -bios \ external_sources/seabios/out/bios.bin \ -drive file=testvm/deb.instance.integrate,if=virtio \ -loadvm loaded \ -virtfs local,path=/tmp/mymount,security_model=none,mount_tag=mymount 这发生在64位Debian挤压内核版本2.6.32和2.6.38的客人。 qemu-kvm的版本是0.14.50,在内核为2.6.32-30的Ubuntu 10.04 amd64主机上。 我对如何进一步诊断这个问题感到茫然; 我现在唯一的select是用某种networking文件系统replace9p。
我在Ubuntu 11.04上使用libvirt + KVM + Qemu。 我有一些像这样的scsi设备: <disk type='file' device='disk'> <driver name='qemu' type='raw'/> <source file='/var/lib/libvirt/images/shared-01-02-00.img'/> <target dev='sda' bus='scsi'/> <address type='drive' controller='0' bus='0' unit='0'/> </disk> 显示在虚拟机中,例如/dev/disk/by-id/scsi-0QEMU_QEMU_HARDDISK_drive-scsi0-0-0 为了我的pipe理目的,我希望能够为虚拟设备分配一个任意的“序列号”,当在虚拟机内部的块设备上运行scsi_id时将显示这些序列号。 我怎样才能做到这一点?
我安装了Proxmox Virtulization服务器。 但是我有一个真正的(公共)知识产权。 传入请求到Proxmox服务器必须绑定虚拟化服务器。 Dnsmasq安装在Proxmox虚拟化服务器中。 但是,在dnsmasq中传入的请求不是MASQUERADE。 但是我想把所有连接到example.com的端口转发给vm? 像SSH一样,像HTTP / HTTPS,像UDP端口等?
我遇到了libvirt的问题。 在系统重新启动时,所有虚拟机(VM)都可以毫无问题地启动并继续运行。 然后在某个时间点,一组机器根据他们的日志closures。 当我尝试重新启动机器时,出现内存分配失败的错误,尽pipe有足够的内存空闲。 server ~ # free total used free shared buffers cached Mem: 16176648 16025476 151172 0 285432 950300 -/+ buffers/cache: 14789744 1386904 Swap: 0 0 0 server ~ # virsh start zimbra error: Failed to start domain zimbra error: Unable to read from monitor: Connection reset by peer server ~ # tail […]
如何在专用服务器上的两个KVM VPS之间共享CPU? 假设我们有一个专用服务器上的8核CPU 为了获得两个VPS的最大性能,我应该为每一个分配8个核心吗? 或者只是给每个VM分配4个核心?
我正在寻找pipe理KVM物理主机集群的软件build议。 我们目前正在使用virsh并且手工完成所有的工作,我希望find一个更强大的解决scheme。 我正在寻找的基本function是: 在群集上安排新客人的能力。 部署新的guest虚拟机时,我们不应该指定特定的物理主机。 pipe理层应根据guest虚拟机的CPU和内存要求以及可用的群集资源,在适当的主机上引导guest虚拟机。 支持实时迁移。 如果物理主机无法运行,则可以重新启动guest虚拟机。 如果系统出现故障,我们不希望手工重新启动。 粒度访问控制。 我们希望能够将个人客人(或客人组)的控制权委托给特定的用户。 如果可能的话,我们希望特定的用户能够在一定的资源限制内部署新的客户端。 集中控制台访问。 我们希望能够访问客户控制台,而不必先确定客户正在运行的位置,然后查找相应的VNC端口。 我知道http://www.linux-kvm.org/page/Management_Tools ,但名单很长,没有结构化,并且对各种产品的相关质量或function集没有任何意见。 亲爱的读者,我在这里,您的意见。
我看到有一个类似的问题与使用BartPE插件的答案,但有没有其他的方法来从外部硬盘驱动器分区创build一个ISO映像? 我不太喜欢使用一个不完全熟悉的程序复制我的硬盘的插件。 对于我想要做的背景,我将使用QEMU的virt-install在LVM上安装ISO。 如果我不能这样做,我会按照我的其他问题来使用Xen。
我用Lvvirt创build了一个虚拟机,当我强行closures或者用ACPIclosures时,它被删除。 我创build它: <domain type='kvm'> <name>deneme2</name> <memory>2097152</memory> <vcpu>1</vcpu> <os> <type>hvm</type> <boot dev="hd" /> </os> <features> <acpi/> </features> <on_poweroff>preserve</on_poweroff> <on_reboot>restart</on_reboot> <on_crash>restart</on_crash> <on_lockfailure>poweroff</on_lockfailure> <devices> <graphics type='vnc' port='-1'/> <disk type='file' device='disk'> <driver name='qemu' type='qcow2'/> <source file='/home/mustafa/buki/vms/deneme2/disk0.img'/> <target dev='vda' bus='virtio'/> </disk> <disk type='file' device='disk'> <source file='/home/mustafa/buki/vms/deneme2/cloud-init.img'/> <target dev='vdb' bus="virtio"/> </disk> <interface type='network'> <source network='br0-bridge'/> <mac address='00:16:3e:5a:41:9c'/> <model type="virtio" /> </interface> […]