最近我需要创build一个新的虚拟机,这个虚拟机需要从ISO文件启动。 当我挂载ISO文件并试图启动时,我看到了以下错误: 合成SCSI控制器(实例ID xxx):无法启动,出现错误“版本不支持此版本的文件格式”
我目前正在使用qemu-kvm,libvirtd和virt-manager的组合来托pipe一些虚拟的RHEL 6机器。 当我继续前进并试图将RAM的使用量提高到4GB以上时,机器无法启动。 这甚至会是什么原因呢? 任何信息都是有用的。 我正在运行一个10核3GHz Xeon处理器,内存为64 GB。 Rhel 6,x86-64
解决它,看在底部编辑 我正在运行带有多个NIC的裸机的Ubuntu服务器16.04.1。 在Ubuntu上,我正在运行KVM,并且有一些虚拟机正在运行Ubuntu服务器16。 我希望创build以下networking结构: 一个没有暴露给外部networking的私人networking,所有我的访客虚拟机将会共享,并且主机将能够通过SSH连接到他们。 我需要时可以连接和分离的一些主机NIC的桥接器。 对于这个问题,让我们说我有1个网卡,它的IP地址是10.0.0.6,它连接到一个连接到networking的路由器。 我以为我得到它的工作,但由于某种原因,现在它不工作,我的客人只能访问10.xxxnetworking,但不能访问外部networking(没有ping到8.8.8.8)。 我认为由于某种原因,一次只能有一位客人上网,也许我需要更好地了解这个桥牌概念。 我的主机/ etc / network /接口如下所示: auto br1 iface br1 inet static address 10.0.0.6 netmask 255.255.255.0 gateway 10.0.0.138 broadcast 10.0.0.255 dns-nameservers 8.8.8.8 4.2.2.2 bridge_ports eno1 bridge_stp off bridge_fd 0 bridge_maxwait 0 post-up ip link set br1 address xx:xx.. 而不是xx:xx ..我得到了'eno1'MAC地址,eno1是主机连接到互联网的网卡,其IP为10.0.0.6,路由器(实际上是一个防火墙..)IP为10.0.0.138 这是我用来将br1桥连接到一个guest的命令: virsh attach-interface server_name –type bridge –source […]
我有一个VMWare ESXI安装,我想切换到Proxmox。 在ESXI上运行2个Windows10安装。 所以在切换之前,我在Virtualbox中设置了Proxmox。 configuration一切,它已准备好使用。 然后我按照正式的文档迁移VMWare主机。 我的Windows10正在启动,但看到我尝试login。 它涉及到一个蓝屏。 “你的电脑遇到了问题,需要重新启动,我们只是收集一些错误信息,然后我们会重新启动。” 它可以尽快恢复。 我的Virtualbox与Proxmox有12GB内存。 2个CPU。 虚拟化已启用。 Windows 10客户也有2个CPU和8到10GB的RAM范围。 启动时使用的内存略多于8GB(在Proxmox GUI中显示)。 有人知道如何解决这个问题? 我完全按照步骤一步一步地追踪着这些信息。 与VMWare相比,Proxmox上的WINDOWS10的性能如何? 在相同的主机上运行相同的设置?
我有一台运行XenServer 6.5的testing服务器,精简版是6.5.0-90233c。 现在我有两个Linux(Debian和Ubuntu)虚拟机平稳运行。 我已经连接了一个1TB USB驱动器,我成功地将整个磁盘设置为存储库(SR)。 我想要的是创build虚拟磁盘映像来连接到虚拟机。 当我尝试创build虚拟磁盘映像(VDI)时,我的问题就开始了。 我尝试创build的VDI的大小并不重要,只是失败。 (为了创buildVDI而发出的命令): xe vdi-create sr-uuid=[my SR's UUID] name-label="Virtual Disk 01 USB SR" type=user virtual-size=15GiB 错误消息返回: Error code: SR_BACKEND_FAILURE_78 Error parameters: VDI Creation failed [opt=error 22] 我试图重新创build存储库,其types设置为EXT3,默认情况下是LVM,但没关系,它以任何方式失败。 进一步查看/ var / log / SMlog,当它失败时,它产生以下内容: xensvr0 SM: [24602] ['uuidgen', '-r'] xensvr0 SM: [24602] pread SUCCESS xensvr0 SM: [24602] lock: opening lock […]
我运行LXC Linux容器,因此我在主机上设置了net.ipv4.ip_forward = 1,这样我就可以从LXC容器内pingnetworking(google.com)。 但是,当我在同一个环境中运行VirtualBox虚拟机并连接到WLAN无线接口时,我得到了重复的ICMP数据包(DUP!)。 我可以通过在主机上设置net.ipv4.ip_forward = 0来停止VirtualBox虚拟机中的重复数据包,但是这会打破LXC容器中互联网的parsing。 我怎样才能防止DUP! 在虚拟机ping并离开net.ipv4.ip_forward = 1集? 谢谢。
我期待在夜间构build过程中创build一个OVF文件。 我目前有这个过程创build一个qcow2图像,我使用qemu转换为vmdk。 qemu-img convert -f qcow2 ${image_name} -O vmdk ${image_name}.vmdk 我想要replace的过程是在ESx VM上运行所需映像的更新,并使用ovftool导出更新映像的ovf(这会将ovf,vmdk和mf下载到本机中)。 然后,我将EULA信息插入到ovf中,更新包含ovf和vmdk的sha1sum的清单(mf)。 我把mvf,vmdk和mf打包成一个ova,然后可以把它传递到VM和ESx。 这个过程起作用。 我希望在这里能够创build我的vmdk并生成一个ovf和mf文件,可以与我的vmdk一起使用。 然而,当我尝试将它加载到下面粘贴的VirtualBox中时,尝试创build的任何ova / ovf都会给我一个EOF错误。 Could not create the imported medium '/home/shayne/VirtualBox VMs/disk1.vmdk' (VERR_EOF). Result Code: VBOX_E_FILE_ERROR (0x80BB0004) Component: ApplianceWrap Interface: IAppliance {8398f026-4add-4474-5bc3-2f9f2140b23e} 我能够使用我生成的vmdk在VirtualBox中创build一个新的映像,所以我不怀疑这是问题。 我期望的唯一的线我需要改变从我的工作ovf生成一个现有的加载虚拟机将是以下。 将字段ovf:size更新为vmdk的新大小 <File ovf:href="disk1.vmdk" ovf:id="file1" ovf:size="3144482816"/> 更新字段ovf:格式为单片稀疏,这是我的vmdk的新格式。 <Disk ovf:capacity="8" ovf:capacityAllocationUnits="byte * 2^30" ovf:diskId="vmdisk1" ovf:fileRef="file1" ovf:format="http://www.vmware.com/interfaces/specifications/vmdk.html#streamOptimized"/> 任何帮助将不胜感激我可以使用从qcow2到ova的任何过程。
我想检查我新购买的VPS的文件系统的性能,并将其与旧的比较,结果令我吃惊,但我不知道如何分析它们。 我selectbonnie++来进行testing: bonnie++ -d /tmp -u root -r 1024 。 VPS#1的结果: 1vCPU,2GB RAM,KVM,Raid 10 SSD : Version 1.97 ——Sequential Output—— –Sequential Input- –Random- Concurrency 1 -Per Chr- –Block– -Rewrite- -Per Chr- –Block– –Seeks– Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP vps1 2G 1207 99 552273 58 122473 11 […]
目前我有一个小型的家庭kvm基础设置,我主要是为了学习的目的。 它目前是一个主机与RAID 1设置存储。 我为客人使用lvm,并有大约8位客人。 最近在工作中,我经历了更新我们的全新的VMware vSphere环境的过程。 它由两台戴尔主机组成,而存储则由iscsi返回Dell Equallogic SANS。 我真的想在家里做类似的设置。 能够在一台主机上进行维护的同时保持一切正常运行。 仍然主要是为了学习的目的,但它会很高兴有。 我想第一步就是搞清楚我的存储解决scheme应该是什么。 我有一个单独的freenas框设置,所以我可以很容易地做iscsi或nfs,但做了一些快速谷歌search后,我看到像GlusterFS其他解决scheme,认为相似,但我没有任何经验,这些东西或涉及的硬件是什么。 我想我正在寻找一种可以在生产环境中使用的解决scheme,但是在家庭实验室中可以做到。 有什么build议么?
我运行所有连接到我自己的桥梁(不是标准docker0之一)的docker集装箱。 这就是从主机的angular度来看(我只留下了与虚拟桥接和以太网有关的信息): root@srv ~# ip link (…) 8: br-7b20560b3603: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default link/ether 02:42:7c:70:e1:47 brd ff:ff:ff:ff:ff:ff 9: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN mode DEFAULT group default link/ether 02:42:f1:70:4f:a6 brd ff:ff:ff:ff:ff:ff 11: veth1fb5957@if10: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master br-7b20560b3603 state UP mode DEFAULT group […]