EHLO大家好! 我在StackOverflownetworking上的第一篇文章:) 我们正在运行一些ESXi 5.0 / vCenter基础架构,主要托pipe带有ext3分区的Debian 6 / amd64来宾系统,以及根据源自debian bug 471784编译的open-vm-tools 。 有一个问题被看到在互联网上被提出,但没有任何结论性的答案在任何地方。 当试图以独立持久模式缩小精简configuration磁盘时,无论是否有快照,父母,无论如何,我总是得到以下错误: root@linux64:~# vmware-toolbox-cmd disk list Shrink disk is disabled for this virtual machine. Shrinking is disabled for linked clones, parents of linked clones, pre-allocated disks, snapshots, or due to other factors. See the User's manual for more information. (顺便说一下,“其他因素”是什么,大量的白皮书和技术手册是用户手册?:) 我知道我可以用零填充分区(实际上,在删除大文件时我使用了shred -fuzn0 ),然后closuresguest虚拟机,并使用各种方法(如vmkfstools […]
自vSphere 5.x以来,我们现在可以通过Web Client同时请求组合的 vMotion和Storage vMotion – 但是可以通过CLI(而不是PowerCLI)来完成吗? 我已经阅读了5.1 CLI的文档,并且search了很多,但是我找不到任何参考。 另外,如果我find答案,我认为它应该有一个容易find的地方。
如果我要查看vSphere群集或资源池并查看某个级别的内存膨胀或交换,如何确定哪些虚拟机受到影响? 我知道如果他们find他们,他们该怎么办:) 在下面的例子中,资源池中有65个虚拟机。 只有32千兆字节的气球RAM。 如何识别哪些虚拟机有一部分内存膨胀或交换? 更新: 我最终使用以下PowerCLI代码进行此过程: $myCol = @() foreach($vm in (Get-View -ViewType VirtualMachine | Where-Object ` {$_.Summary.QuickStats.BalloonedMemory -ne "0"})){ $Details = "" | Select-Object VM, ` SwappedMemory ,BalloonedMemory $Details.VM = $vm.Name $Details.SwappedMemory = $vm.Summary.QuickStats.SwappedMemory $Details.BalloonedMemory = $vm.Summary.QuickStats.BalloonedMemory $myCol += $Details } $myCol 由于具有以下function的40多台虚拟机: VM SwappedMemory BalloonedMemory — ————- ————— pr0n-web2v (347f9… 161 2391 […]
我已经search了互联网的每一个angular落(呃,我真的很努力地search到了),为了一个合适的适用于Linux的vSphere客户端,但似乎每次都是一样的:VMWare告诉用户使用Windows。 是否有关于Linux的vSphere客户端的任何信息? 有支持Linux的替代第三方客户端吗? 任何帮助表示赞赏。
我正在开始探索用于现有和新安装的VMware分布式交换机 (dvSwitches或VDS)。 假设VMware版本5.1和更高的Enterprise Plus许可证。 在此之前,我已经很好地使用了使用正确types的物理上行链路(1GbE或10GbE)定义的标准vSwitch,并在各个主机上独立pipe理。 使用分布式交换机如何以基本术语帮助我? 检查互联网上描述的其他安装和设置,我发现很多情况下,虚拟pipe理networking或VMkernel接口保留在标准交换机上,虚拟机stream量到达分布式交换机; 一个混合模型。 我甚至见过build议,以避免完全分布式交换机 ! 但更重要的是,我在网上find的信息似乎已经过时了。 在转换我现有的一台服务器时,我不确定pipe理接口在哪里需要定义,并且无法find一个很好的解决方法。 那么,这里最好的做法是什么? 要使用标准和分布式交换机的组合? 或者这不仅仅是一个拥有良好分享的技术? 最近在VDS中包含LACPfunction如何变成这个颜色? 这是一个真实的新的安装场景: 带有6个1GbE接口的HP ProLiant DL360 G7服务器作为ESXi主机(可能是4个或6个主机)。 4人堆叠交换机解决scheme(Cisco 3750,HP ProCurve或Extreme)。 由EMC VNX 5500支持的NFS虚拟机存储。 什么是build立这个设置的最干净的最有弹性的方法? 我被要求使用分布式交换机,并可能包含LACP。 将全部6个上行链路放入一个分布式交换机,并在不同的物理交换机堆栈成员之间运行LACP? 将2个上行链路关联到标准vSwitch进行pipe理,并为VMstream量,vMotion,NFS存储等运行4上行链路LACP连接的分布式交换机? ??? 利润。
我正在运行ESXi Vsphere客户端6.0.0版,但所有不同的文档和更改都无法理解我的限制。 从官方文档中我看到,我的物理CPU的限制应该是无限的,但我只能给一个虚拟机高达8个vCPU。 从其他来源,我读到,我有免费版本的2个物理CPU的限制。 我看到内存限制消失了,我很高兴。 有没有任何文件给我实际的限制? 似乎VMware已经隐藏起来了),至less我没有用谷歌在这里搜集正确的信息。 我只对硬件限制感兴趣,而不是创build故障转移等的限制。
此vCenter服务器刚刚升级到5.1更新1.我正在通过主机和固件更新,然后从各种版本的5.0升级到5.1u1。 vCenter 5.1u1似乎有一个有趣的新行为:当它们在断开连接后重新连接时,将主机从维护模式中删除 – 但非常不一致,在〜25-30主机重新启动时,我已经看到它可能是4或5次。 我只看到它发生在尚未升级到5.1的5.0主机上。 在该映像中,我将主机置于维护模式,并将其重新引导至HP SPP DVD的自动更新模式。 在通常的~40分钟的更新过程之后,主机回到了在线状态。并且在logging主机重新连接之前7秒,vCenter已经向主机发送了一个任务以退出维护模式。 根据我的理解,唯一一次vCenter将主机退出维护模式的时机是vCenter本身将其置于维护模式(例如VUM升级任务)的时间。 为什么这个vCenter将单方面从用户启动的维护模式退出主机? 编辑,附加信息: 我同时在5台主机上运行固件升级。 其中两个重新连接后退出主线模式,三个没有。 那些退出maint模式的共同因素似乎是他们离线了多久 ; 那几个试图启动到虚拟媒体的两个就是两个被淘汰的maint模式。 esx31(上图): 45分钟无响应 esx19(已退出主线): 87分钟无响应 esx24(留在maint):32分钟没有反应 esx29(留在maint):39分钟没有反应 esx32(留在maint):30分钟没有反应 esx34(已退出主线): 70分钟无响应 编辑:断开时间的想法似乎是一个红色的鲱鱼,因为它不是一直发生。 此外 ,在vpxd.log ,退出vpxd.log模式任务启动似乎总是紧随此vim.EnvironmentBrowser.queryProvisioningPolicy SOAP调用。 这里是线条,为了清晰起见, 15:27:49.535 [info 'vpxdvpxdVmomi'] [ClientAdapterBase::InvokeOnSoap] Invoke done (esx31, vim.EnvironmentBrowser.queryProvisioningPolicy) 15:27:49.560 [info 'commonvpxLro'] [VpxLRO] — BEGIN task — esx31 — HostSystem.exitMaintenanceMode — 请注意,在没有得到退出任务的节点上,仍会发生vim.EnvironmentBrowser.queryProvisioningPolicy事件。 在重新连接过程之前或之后,除了退出维护模式引起的额外事件之外,我没有看到任何其他事件的差异。 […]
更新:我更新了邮件的标题,因为我最近看到了更多的这些问题,确切的时间量为17163091968s 。 这应该有助于人们调查症状,find这个网页。 请参阅下面我的(自我)接受的答案。 我在VMware vSphere数据中心有一堆64位Ubuntu 10.04 LTS虚拟机。 VMware工具已安装(vSphere Client说“确定”)。 我已经看到了一些虚拟机在syslog中出现了以下错误。 当从vSphere检查情况时,控制台是黑色的,“重新启动客人”命令没有做任何事情,所以我必须重新启动虚拟机。 Dec 1 11:44:15 s0 kernel: [18446744060.007150] BUG: soft lockup – CPU#0 stuck for 17163091988s! [jed:26674] Dec 1 11:44:15 s0 kernel: [18446744060.026854] Modules linked in: btrfs zlib_deflate crc32c libcrc32c ufs qnx4 hfsplus hfs minix ntfs vfat msdos fat jfs xfs exportfs reiserfs xt_tcpudp iptable_filter […]
问题 我们在一个现有的平台上有一个性能问题,所以我现在正在转向蜂巢式的思想,对此有第二个意见。 性能问题到目前为止与IOPS而不是吞吐量有关。 情景 一个16个主机的刀片中心,每个都有64GB的RAM。 (这是一个戴尔M1000e瓦特/ M610s,但这可能不相关)500个虚拟机,所有的Web服务器(或相关的networking技术,如MySQL,负载平衡等),约90%是Linux和其余的Windows。 pipe理程序是VMWare vSphere。 我们需要提供主机HA,所以本地存储不在。 因此,主机只需要一张SD卡即可启动。 一点背景思考 目前我们最多有6台主机(刀片服务器中心将会在目前的增长时间内处于满负荷状态),而且我们正在运行iSCSI到戴尔MD3220i w / MD1220进行扩展。 我们考虑过的可能的select,以及与他们一起的直接想法: 通过NFS数据存储区分散虚拟机,并运行满足性能要求的NFS存储器,以满足给定数量的虚拟机。 NFS看起来比较便宜,并且被抽象得比块级存储更多,所以我们可以根据需要移动它。 添加更多的MD3220i控制器/目标。 我们担心这样做可能会对VMWare处理大量目标产生负面影响。 将所有磁盘从Nearline SAS交换到SSD。 这应该完全解决IOPS问题,但是降低存储容量有明显的副作用。 而且它还是非常昂贵的。 vSphere 5有一个存储设备。 我们还没有研究这么多,但它一定能运作好吗? 问题 你会在下面运行什么样的存储? 它不需要扩展到另一个刀片中心,只需要为所有这些VM提供相对较好的性能。 我不是在寻找“购买SAN x,因为这是最好的”答案。 我正在寻找关于各种SAN技术(iSCSI,FC,FCoE,InfiniBand,NFS等),不同types的存储(SATA,SAS,SSD)以及处理100多个虚拟机的存储方法的思考(合并,分离,Sharding等)。 绝对的任何想法,链接,指南,指针等在这方面是值得欢迎的。 我也很想听听我们已经考虑过的上述选项的想法。 非常感谢任何input! 更新3月5日'12 迄今为止的一些精彩回应,非常感谢大家! 到目前为止,对这个问题的回答,我开始认为以下路线是: 将可用存储器分层到VMWare群集,并将VM磁盘放置在合适的存储器上用于其工作负载。 有可能使用能够自动pipe理数据放置到合适存储的SAN。 Infiniband看起来是最具成本效益的,以满足主机满负荷所需的带宽。 这听起来似乎是值得使用主要SAN供应商的售前服务来获得他们的scheme。 我将继续考虑这个问题一段时间。 同时,更多的build议感激地收到!
我在iSCSInetworking上遇到了很大的麻烦,似乎无法使其工作得尽可能快。 所以我已经尝试了几乎所有的东西,从我的SAN获得完整的性能,涉及VMware和EMC的专家。 我的装备的简短描述:用于iSCSI的3个HP DL360 G7 / vSphere 5.5 / 4板载NIC / 4个PCIe Intel NIC 2x HP 2510-24G 1个EMC VNXe 3100/2存储处理器,每个都有2个iSCSI专用NIC / 24x 15k SAS RAID10 / 6x 7.2k SAS RAID6 我采取了最佳做法,并将存储池均匀地放在两个iSCSI服务器上。 我创build了2个iSCSI服务器,每个存储处理器上有一个。 请参阅我的iSCSIconfiguration的图像。 iSCSIstream量是通过VLAN隔离的(禁止为其他VLAN设置),我甚至用另一台29xx系列的HP交换机尝试过。 stream量控制已启用(也尝试禁用),Jumbo已禁用。 没有路由参与。 在ESX主机上,正在使用所有iSCSI NIC,因为我对每个数据存储使用了循环法设置。 我也尝试了1 IO的path更改策略,因为许多其他人似乎以这种方式获得了性能。 我也尝试了内部网卡(Broadcom),但是没有区别。 在交换机上,我可以看到端口被非常均匀地使用,ESX端和VNXe端。 我有一个完美的负载平衡,但是,我总共不能超过1 Gbit。 我知道VNXe已经针对多个连接进行了优化,而Round Robin确实也需要这样做,但是即使在两台主机和两个数据存储(使用不同的iSCSI服务器)之间进行存储vMotion时,我也可以看到一条84 MBit / s通过Unisphere web界面。 我可以经常看到这条线,价值完全相同,我不能相信我的磁盘不能提供更多或者任务不够高。 它变得更好了:每台主机和每个存储处理器上只有一根电缆可以实现同样的性能。 所以我得到了很多的冗余,但没有多余的速度。 正如我见过很多人谈论iSCSI性能的时候,我非常想知道我的configuration有什么问题(已经过VMware和EMC培训的人员的testing和validation)。 我很感激每一个意见! […]