我遇到了ESXi 4.1主机在停电后丢失了带有FC SAN的数据存储的问题。 所有3台主机断开连接,这绝对是一个SAN问题。 我试图通过SAN软件支持和Adaptec硬件支持来解决SAN方面的问题。 那里没有运气。 所以我坚持使用随机断开音量的SAN。 我需要从数据存储获取虚拟机(VMDK文件)。 问题是我只能得到5-20%的数据存储断开连接之前。 我有稍微旧的备份,可以用来复制VMDK差异。 到目前为止还没有工作: 启动虚拟机,将启动5-15分钟,然后冻结 vCenter迁移或克隆虚拟机,将在相似的时间段后失败 VMDK的vCenter复制/粘贴。 之后能够获得一个30GB的VMDK,没有运气。 vMware数据恢复。 在低%失败,不能恢复,所以下一次备份从开始。 Veeam备份和恢复。 同上,没有恢复function。 如果我可以find一个备份解决scheme,将从失败的地方恢复,将解决我的问题。 任何人有任何想法,我可以尝试? 编辑1 SAN是在具有4端口Qlogic FC的Supermicro 24驱动器机箱上运行的Open-E DSS 6。 Adaptec 52445 RAID卡。
我最近买了一台全新的戴尔PowerEdge R610服务器,我在上面安装了VMWare ESXi 5.0,并尝试将FreeBSD安装为用于鱿鱼caching的客户机操作系统。 该服务器有一个PCI-E Intel X520-T2 10Gig网卡Coper双端口,用于在网关和caching服务器之间进行高速数据传输,但是现在我在FreeBSD下无法正常工作。 我最初安装了两个FreeBSD盒子,并将10gig卡片作为e1000添加到他们两个,但它显然工作,但显然只有1gig / s的性能,这真的很差。 然后我尝试将网卡添加为VMxNet2和VMxNet3,但是它们并没有工作,因为在FreeBSD 9上FreeBSD的VMWare-Tool被破坏了,而开放的vm-tools被编译,安装,甚至没有检测到接口不明原因。 所以最后我发现透传可能是一个好主意,我将VMWare ESXiconfiguration为通过两个10gig接口,并将它们作为PCI设备添加到我的FreeBSD盒子中。 我认为这样FreeBSD应该检测硬件并为NIC分配合适的驱动程序,但是没有。 我得到的问题是我试图重新编译内核启用了ixgbe设备,系统检测到设备正确,分配了驱动程序版本2.3.3,我能够看到ifconfig的ix0接口。 但是我不能ping通,因为设备的状态是“无载体”,所以无法连接任何东西。 我search了错误信息,结果是驱动程序问题,所以我从英特尔官方网站下载了最新版本的ixgbe,编译安装了驱动程序,现在系统可以检测并为接口分配驱动程序2.4.4,但是我仍然没有载体的错误消息。 我现在没有访问服务器,所以我不能提供任何输出,一旦我可以获取日志,我会更新我的问题。 顺便说一句,我相信我的FreeBSD是最新的一个FreeBSD9-Stable,在2012年2月16日更新了src。 PS。 我试过用GENERAL内核安装FreeBSD 9 Release版本,同样的问题。 任何人都可以给我提供任何链接,想法或疑难解答方法,非常感谢你。 问候,海浪 这里是服务器的输出。 OmniSquid#dmesg | grep ix0 ix0:端口0x4000-0x401f mem 0xd2600000-0xd27fffff,0xd2400000-0xd2403fff irq 18在设备0.0上pci3 ix0:使用5个向量的MSIX中断 ix0:以太网地址:00:1b:21:d8:d7:b2 ix0:PCI Express总线:速度5.0Gb / s未知 OmniSquid#pciconf -l -cv | grep ix ix0 @ pci0:3:0:0:class = 0x020000 card […]
我试图通过老问题,但找不到一个打这个确切的问题。 在VmWare有关快照的文档中,他们提到将它们用于“stream程树”设置。 这将允许从一个基本的.vmdk磁盘产生多个虚拟机。 这个想法是,你创build一个基础磁盘,然后快照。 这将创build一个“差异”磁盘,用于对VM进行的任何更改。 我已经通过使用以下步骤testing了这一点: 使用新的.vmdk文件创build一个基础虚拟机,并根据需要进行configuration closures虚拟机 创build一个新的虚拟机,并select使用现有的.vmdk磁盘。 在启动新VM之前,请拍摄新VM的快照。 这将在新VM的文件夹中创build差异磁盘 新的虚拟机将写入任何偏离基地,这个新的.vmdk文件。 启动VM 对其他VM重复步骤4-5 我的想法是,这可以节省共享存储(iSCSI SAN)上运行多个虚拟机所需的磁盘空间量。 问题: 我想看看是否有人运行这个设置,以及可以预期什么types的性能影响(额外的磁盘I / O,内存等)或任何其他snafus要注意的? 有什么情况会导致更多的问题,而不是它的价值?
有没有办法设置VMWare vSphere客户端显示我的操作系统内存使用MB或GB而不是KB?
昨天我把我的vCenter升级到最新版本5.1,我不得不重新连接主机(运行esx 5.0,最后一个补丁) 由于我迁移了,所以5个vms(总是相同的)从主机到主机被vMotion,当它完成时vMotion再次到另一个主机…(我可以看到DRS在这个任务中启动了这个操作),然后vMotion一次又一次地 我的主机有足够的可用内存和每个主机上足够的可用CPU … 我应该担心吗? 谢谢 菲利普
任务/细节 我们需要将Vcenter环境从v4.1.0 Build Number: 799345到v4.1.0 Update 3 Build Number: 816786 问题 备份数据库和SSL证书后,我们运行位于这里的VMWare提供的.zip文件中的更新。 它提醒我们,我们将更新,如果我们希望继续更新完成没有任何错误,并且所有客户端都正确地推新代理。 但是,当我们检查版本信息时,它仍然显示Build Number: 799345版本Build Number: 799345 ,好像更新从未运行。 据我可以告诉它应该是Build Number: 816786 。 VCenter实际上没有正确更新的任何想法? 没有错误。
当我在运行在vmware下的CentOS 5虚拟机上运行iperf作为客户端时,为什么我会看到如此高的%si值? 我们在运行Xen和XenServer方面有更多的经验,在Xen下几乎相同的centos安装只显示〜0.5%si,而运行iperf。 所有testing都使用1Gbnetworking,我们从iperf获得的数据是好的(900+ Mb)。 top – 22:34:59 up 7 min, 2 users, load average: 0.11, 0.34, 0.21 Tasks: 115 total, 1 running, 114 sleeping, 0 stopped, 0 zombie Cpu(s): 0.1%us, 2.6%sy, 0.0%ni, 77.4%id, 0.0%wa, 8.9%hi, 11.1%si, 0.0%st Mem: 8174464k total, 2038784k used, 6135680k free, 1754068k buffers Swap: 2096472k total, 0k used, 2096472k free, 132820k […]
我试图找出vSphere或其他VMWare产品的哪些组件用于pipe理各个VM的资源自动扩展,方法是这两个提供程序描述的方式: http://vps.net/cloud-servers/flexible-cloud http://www.singlehop.com/blog/launching-our-new-vmware-powered-public-cloud-autoscaling-san-based-storage-and-a-whole-lot-more/ 我已经看到您可以使用orchestrator运行触发的工作stream程,并且可以使用vFabric触发新的vApp部署,但就我所知,它们都在单个VM之外。
我们正在使用vCenter,eSXi 5.1和Acronis vmProtect来运行和备份基于Windows和* nix的虚拟机networking。 这是我今天感兴趣的后者。 其中一些仍然运行自制的文件级备份脚本,我想closures并回收磁盘使用。 首先,我想testingvmProtect备份的恢复。 我们有第二个主机 – 比我们的主机要less得多 – 我可以用它来testing。 我明白,我可以部署一个虚拟机,它没有连接到主机的vSwitch。 我正在研究如何testing已部署虚拟机的function – 也就是说,我们需要确保虚拟机仍然可以正常服务页面(在Web服务器的情况下),SSL正在工作,数据库处于同步文件系统等等等等。据我所见,唯一的方法就是将windows vm部署到单独的vSwitch,这样两个人就可以看到彼此,而不会影响生产networking。 有更容易的方法吗? 有没有一种方法来部署虚拟机,并使其可以从我的物理工作站以正常的IP进行访问,而不是networking上的其他工作站?
我最近用Vmware View 5.2购买了两台配有365GB IODrive2的HP 380P Gen 8服务器,用于VDI。 使用最新的HP vmware 5.1更新1 ESX安装程序,然后安装适用于ESX的Fusion-io驱动程序之后,我能够将驱动器格式化为VMFS5,创build池并将副本放在Fusion-io上。 所有这些似乎运行速度与RAID0中的两个15k SAS驱动器一样快。 对VDI体验不满意,我们决定在Fusion-io上创build一个包含所有组件的池。 速度仍然没有与规格表的状态相提并论。 我终于做了一个从Fusion-io到ESXi的testing拷贝(从ESXi ssh shell),我现在每分钟传输速率大约是1GB。 白皮书声称我应该得到500MBps左右。 这里有一些testing: # ls -lrt rw——- 1 root root 3572297728 Aug 22 11:43 VMware-VIMSetup-all-5.1.0-947939.iso # du -h 3.3G . 从4个驱动器RAID10 15k SAS到自己: cp VMware-VIMSetup-all-5.1.0-947939.iso test.iso需要cp VMware-VIMSetup-all-5.1.0-947939.iso test.iso 从4个驱动器RAID10 15k SAS到Fusion-io: cp VMware-VIMSetup-all-5.1.0-947939.iso /vmfs/volumes/fusion2/test.iso需要34秒 从Fusion-io到本身: cp test.iso test2.iso需要78秒 […]