我的客户端具有在ESXi 5.1下运行的虚拟Server 2008 R2terminal服务器。 该服务器已经生产了大约4个月,对于login用户而言间歇性的缓慢/不响应。 发生此问题时, iexplore.exe进程(32位和64位)正在使用非常高的CPU和RAM。 屏幕截图:Windows任务pipe理器:“进程”选项卡 截图(截图时间不同于第一截图):Windows任务pipe理器:“性能”选项卡 (这两个截图是在不同的时间拍摄的) 有关如何永久解决此问题的任何想法? 我们有一些客户端使用的terminal服务器,但是这是我们在VMware下部署的第一个TS。 我们的其他terminal服务器在XenServer或物理上。 这可能是VMware的问题吗?
将系统从ESXi移动到Hyper-V时遇到问题。 ESXi上的系统已经在HDD上获得了100GB的分配空间。 该系统是由一个图像文件(大小约6GB)。 托pipeHyper-V的机器具有大约110GB的可用空间。 有什么办法可以转换虚拟机? 或者另一个问题:在ESXi上运行的系统有大约90GB的可用空间。 有没有办法从该系统制作一个大小约10GB的备份文件? 在第三台机器上处理和从vmdk转换到vhd会更容易。 对不起,我的英文不好,谢谢你的回答!
我们有大约20个主机连接到从Ubuntu服务器运行的NFS共享。 有一天他们都失去了联系。 我们已经重新启动NFS服务器,以排除任何有趣的服务。 当试图连接到挂载,这是来自Ubuntu端syslog的日志,看起来很好: May 14 16:23:26 nas1 snmpd[2351]: Connection from UDP: [192.168.99.51]:36999->[192.168.99.41] May 14 16:23:45 nas1 rpc.mountd[1863]: authenticated mount request from 192.168.30.1:604 for /data/nfs (/data/nfs) 这是来自ESX服务器上的vmkernel.log的日志: 2013-05-14T15:29:25.882Z cpu6:9124)NFS: 157: Command: (mount) Server: (nas1.4d.wirehive.int) IP: (192.168.30.51) Path: (/data/nfs) Label: (NFS) Options: (None) 2013-05-14T15:29:25.882Z cpu6:9124)StorageApdHandler: 692: APD Handle b4215f5c-3ba55d8f Created with lock[StorageApd0x41001d] 2013-05-14T15:29:25.887Z cpu6:9124)NFS: 1236: NFS […]
我在两个不同的设置上遇到VMWare vSphere 5.1和NFS存储问题,导致NFS共享的“All Path Down”状态。 首先发生一次或一天两次,但最近发生的频率更高,特别是当Acronis Backup作业正在运行时。 设置1(生产):2台ESXi 5.1主机(Essentials Plus)+以NFS为存储的OpenFiler 安装程序2(Lab):1 ESXi 5.1主机+ Ubuntu 12.04 LTS,NFS作为存储 这是来自vmkernel.log的一个例子: 2013-05-28T08:07:33.479Z cpu0:2054)StorageApdHandler: 248: APD Timer started for ident [987c2dd0-02658e1e] 2013-05-28T08:07:33.479Z cpu0:2054)StorageApdHandler: 395: Device or filesystem with identifier [987c2dd0-02658e1e] has entered the All Paths Down state. 2013-05-28T08:07:33.479Z cpu0:2054)StorageApdHandler: 846: APD Start for ident [987c2dd0-02658e1e]! 2013-05-28T08:07:37.485Z cpu0:2052)NFSLock: 610: Stop accessing […]
我有一个带有3个硬盘(1个SSD,2个磁盘)的ESXi 5.1主机,我想监视它们,特别是对于SMART Data,这是非常关键的,并且预先制定了一个硬盘分区。 由于我对ESXi非常不熟悉(我认为是基于红帽子的),而且这是一个高效的环境,所以我在这里问了一些build议/教程/如何在我的系统上执行此操作。 如何在ESXi上为这些磁盘安装zabbix SMART数据监视器? 我的磁盘(我认为没关系)是: 1x英特尔®SSD 520系列240GB http://ark.intel.com/products/66250/ 2x希捷梭鱼ST3000DM001 3 TB http://www.seagate.com/it/it/internal-hard-drives/desktop-hard-drives/desktop-hdd/?sku=ST3000DM001
我有近70个ESX主机需要添加根SSH密钥。 有没有办法通过vsphere或powercli做到这一点,或者我将不得不手动SSH到每个框,并添加到每个文件的行?
我有一台运行3个虚拟服务器的ESXi 5主机。 其中1台服务器通过软件iSCSI在单独的硬件上使用数据存储。 当两个硬件服务器(存储和主机)遇到中断时,ESXi主机将首先启动,并且无法findiSCSI数据存储,这不会导致任何虚拟服务器启动。 如果我login到vSphere客户端并在两台服务器启动后重新扫描数据存储,则会find数据库。 然后我可以手动启动每个虚拟机。 发生停电时,我希望一切都能自动启动。 我错过了什么? 一如既往,感谢您的帮助。
在同一个VMWare机器上运行的一组虚拟化的Linux机器之间,文件共享选项有什么相关性? 如高吞吐量,低延迟等 我主要使用NFS。 VMWare默认使用hgfs。 他们如何比较? 有没有其他的select值得考虑(例如sshfs)。 背景 我们有一个应用程序,在物理机上通过主站上共享的NFS挂载目录将工作分配给从站。 这个configuration很容易在VMWare上复制。 而且似乎给了足够的performance。 但是,我想知道在VMWare下运行的Linux客户机之间是否有更好的方式共享目录? 我收集VMWare上的共享文件夹使用hgfs。 这会更好吗? 这是最好的select吗? 在这里更好。 我的意思是在当前的单个VMWare主机上提供最好的性能。 如果是这样,我怎么启用它? 尽pipe安装了VMWare工具,似乎没有select启用共享。 在VM设置/属性/选项 – VMWare工具被列为关机。 在Googlesearch的各个网站上显示的共享文件夹条目不存在。
我们一直在努力解决我们的服务器的问题大约一个星期。 只是在这几天才真正发现问题所在。 只需提供一些信息:我们使用第三方虚拟主机运行虚拟机。 我知道他们使用VMWare,但不知道具体的版本。 他们刚刚将我们的VMWare工具更新到了昨晚的最新版本。 服务器操作系统是Windows Server 2008 R2,并且应该具有最新的Windows更新。 我们使用这个作为Web服务器,所以它运行IIS 7.5,我们运行ColdFusion 9.0.1。 Coldfusion 9应该使用最新版本的JDK 6(我认为Java 7存在兼容性问题)。 我们所看到的是很短的时间,从30秒到2.5分钟的地方,服务器基本上处于“停顿”状态。 它并没有真正locking,但是CPU的使用率几乎降低到了0,并且没有处理web请求。 使用Windows性能监视器,我们发现当发生这种情况时,磁盘IO似乎完全丢失。 附件是从性能监视器中提取的graphics图像。 第一个图表显示何时发生。 请注意,磁盘空闲%(绿线)下降到0.我认为这意味着磁盘访问是满负荷。 CPU下降到接近0%,偶尔会出现尖峰。 紫色线是磁盘队列长度,我假设显示有多less磁盘IO操作挂起在系统上。 这通常是非常低的,大约是1或2,通常是0。当这种现象发生时,这会显着增加(如果磁盘访问有问题,这是有意义的)。 第二张图显示事情何时回来。 当CPU开始在Web请求队列中匆匆忙忙时,CPU被挂住了,而其他的东西却积压了,但是磁盘统计数据又回到了“正常”状态。 不是每一次,但是当这种情况发生,中断时间很长(几分钟),我们也看到一些警告logging在Windows系统事件日志中。 源是“LSI_SCSI”,事件ID是“129”,一般消息“Reset to device,\ Device \ RaidPort0,was issued。” 当第一次开始的时候,我们认为这是我们的代码,但看到这一切发生后,我们觉得这是OS或VM / VMWare方面的东西。 我不认为这是负载相关的,因为如果是我认为我们会看到高磁盘使用率和高CPU使用率。 事实上,CPU是低types的,导致我相信进程只是阻止等待IO请求返回。 我们正在与我们的托pipe服务提供商合作,我写这个来解决这个问题,但我想我会在这里尝试的想法。 提前感谢任何帮助! 第一张图 第二张图
我有一个ESXi主机,它是一组相同的Dell R710服务器的一部分。 “硬件”选项卡中的一台服务器显示了硬件传感器的不完整列表,在BMC节点下显示完全错误的详细信息: 错错错错错! 这不是正确的IP地址,这不是一个有效的网关,这不是正确的MAC地址。 差远了。 到目前为止我有: 重置传感器 重置iDrac 在ESXi主机上运行/sbin/services.sh restart 删除并重新inputConfiguration > Software > Power Management的IPMI信息 我该如何纠正这一点,以便从ESXi内部看到准确的硬件信息?