在配备LSI MegaRaid的IBM X3400 M3上,我们的ESXi 4出现了很大的问题。 4个1TB的RAID 10,2个数据存储1 TB。 自2010年以来没有做任何维护。我自己的大罪! 80) 从系统日志,我发现自2013年3月以来,我们有一个磁盘失败。 其实我很高兴地看到,这个系统工作了近一年,下了一个高清。 两天前,一切都停止了,数据存储空了。 打开系统,检查电缆和HD; 从一个好的HD重新创build虚拟磁盘1; 试图开机,没有成功; 从ESXi 4 CD执行修复安装。 它以以下消息结束:“ 修复不完整:ESXi 4.1映像已成功修复,但分区表无法恢复。安装程序无法重新创build分区表来恢复VMFS分区或自定义分区。分区条目到分区表来恢复您的数据,请致电VMware支持部门寻求帮助。 现在我有一些分区(FAT 16,VMKCore)和没有VMFS。 重要提示:我在网上发现的大多数文件都提到了128的偏移量。在这个configuration中不可能。 我应该删除一切吗? 我很确定以前的系统是这样configuration的。 由于我只安装了ESXi 4的修复(基本系统),我仍然相信还原我的vmdks。 数据存储是930 GiB,现在我有997 GiB免费。 我用vmfs-tools安装了Ubuntu Server,可以访问parted和testdisk。 现在我被卡住了,寻求build议。 谢谢 罗纳尔多 编辑: 这是我的TestDisk日志到目前为止。 TestDisk 6.13, Data Recovery Utility, November 2011 Disk /dev/sda – 998 GB / 930 GiB – […]
我们很快就必须想出一些解决这些问题的方法: 1个新的服务器与6个以太网接口 2个带有4个以太网接口的旧服务器 这3台服务器上的vSphere Essentials Plus 1个双控制器iSCSI SAN 1x开关 1x以太网上行链路到服务器机房主干 我正在考虑这个networking设置: 来自每个服务器的2x以太网端口联合(vSwitch0)并进入交换机 这些端口和交换机上的VLAN可以隔离WAN,LAN,vMotion,pipe理 从每台服务器到两个iSCSI控制器的两个以太网端口(巨型帧) 新服务器上有2个未使用的以太网端口 上行链路的交换机的一个端口 在我看来,这是利用当前硬件资源的最合理的方式,它在所有系统上保持一致。 存储部分将继续运行,没有任何单点故障,networking部分将不得不等待第二个交换机… 除了获得第二个开关之外,还有什么可以改进的当前设置? 如果我想尝试一下,是否应该为vSphere Replication留出另一个VLAN? 还是为了别的?
我试图通过Qlogic QLE8242 HBA将承诺vTrak e610f连接到在ESXi 5.5u1上运行的VM。 我想使用RDM连接到Ubuntu 12.04LTS虚拟机。 在ESXi服务器上安装QLogic驱动程序并重新启动后,会看到HBA,但没有设备或path。 ~ # esxcfg-scsidevs -a vmhba0 ahci link-n/a sata.vmhba0 (0:0:31.2) Intel Corporation Lynx Point AHCI Controller vmhba1 megaraid_sas link-n/a unknown.vmhba1 (0:6:0.0) LSI / Symbios Logic MegaRAID SAS GEN2 Controller vmhba2 qlnativefc link-n/a fc.2000000e1e34a933:2100000e1e34a933 (0:1:0.6) QLogic Corp 8200 Series 10GbE Converged Network Adapter (FCoE) vmhba3 qlnativefc link-n/a fc.2000000e1e34a937:2100000e1e34a937 (0:1:0.7) […]
我有一个VMWare ESXI 5.0.0(这是有点旧,我知道)主机上有三个访客虚拟机。 出于未知原因,客人不会使用大量可用的CPU资源。 我将所有三位客人都集中在一个池中,所有configuration的主机都使用相同数量的资源份额,因此它们基本上都是33%。 这三个guest虚拟机基本上是相同的configuration,只要他们的虚拟机资源去。 所以问题在于,即使客户正在执行什么应该是非常“忙碌”的活动,比如在启动时,实际的主机CPU消耗是微小的,如33mhz,当通过vSphere控制台的“虚拟机”选项卡查看属性时为游泳池。 当然,来宾虚拟机的性能是可怕的。 主机有足够的CPU来备用。 我试过修改个人访客虚拟机资源设置; 起床保留等等。不pipe。 客人只是拒绝使用丰富的CPU,并坚持使用可用的资源。 有什么build议么? 阅读下面的各种评论后更新根据以下build议,我从应用程序池中删除了客人; 这没有任何区别。 我明白,客人不会消耗他们不需要的资源。 我试图在启动时间较长的guest虚拟机上执行远程perfmon,但无法使用perfmon远程连接到guest虚拟机(guest虚拟机是w2k8r2服务器)。 CPU,Mem,Disk的主机图基本上是平坦的; 需求非常less。 客人统计数据也是如此; 而客户本身似乎正在爬行,客户资源图表显示CPU,Mem,Disk上的活动非常less。 主机是戴尔PowerEdge 2900,拥有2个物理CPU,20GB RAM。 (这是一个使用剩余齿轮的testing/开发环境)Guest1具有:VM ver。 7,2vCPU,4GB RAM,140GB存储,位于主机上的RAID-5arrays上。 Guest2有:VM ver。 7,2vCPU,4GB RAM,140GB存储,位于主机上的RAID-5arrays上。 Guest3有:VM ver。 7,1vCPU,2GB内存,2TB存储,位于RAID-5 ISCSI NAS盒子上 也许我做了一个错误的假设,如果客人有一个CPU的需求(例如Windows任务pipe理器显示100%的CPU),主机将提供更多的CPU(MEM,磁盘)的需求。 另一个更新检查统计后,看起来主机确实不是很忙,客人也不是。 不过,我相信我对这个问题有个好主意。 一个乱七八糟的VMWare工具安装。 guest虚拟机上有VMware Tools,但主机却说没有。 VMWare工具拒绝卸载,拒绝升级,拒绝被识别。 虽然我不能用权威来说,但这似乎是值得调查的事情。 我不知道客户本身的来源,也不知道原始VMWare工具安装的具体情况。 经过各种search,我确实想出了一些无用的build议。 为此,我打算删除这个问题,但被促使这么做,因为很多人回答。 我现在的怀疑是 问题确实是客人; 客人没有对主人作出要求,并且作为自然的结果,主人相应地对待客人。 我的最终更新我99%肯定guest虚拟机有一些VMWare工具的根本错误。 我创build了一个具有几乎相同的操作系统configuration的不同虚拟机的克隆,但正确安装了VMWare工具。 客人运行得很好,在需要的时候占用资源的分配; 例如,在启动过程中,它会消耗大约850mhz的CPU,然后在客户机操作系统稳定后,再将其挂起。
我们有一个使用本地存储(DAS)的VM ESXi 5.x主机。 它在RAID10中有两个相对较大的逻辑驱动器(每个10个HDD x1TB)。 所以,每个5TB 2个LUN。 我们正在考虑只创build两个数据存储,每个逻辑驱动器一个,因为我们认为在处理本地存储时(在多个主机访问的NAS中会存在争用),没有添加VMFS5争用。 创build更多/更小的数据存储是否有优势?
这是ESXi 5.5。 我知道,VMWare KB是非常反对长时间运行的快照,但我不知道另一种方式来做到这一点。 比方说,我有一个基础的Linux系统,并希望为每个用户创build一个独特的虚拟机。 我可以简单地快照系统并将其提供给用户。 如果用户弄错了或需要刷新,我可以简单地删除快照并创build一个新的。 我知道VMWare模板,但是让我们说,我的基本形象是10GB。 这意味着每个用户的足迹将是(比如5个用户): 10GB(基本)+ 1GB用户文件 10GB(基本)+ 1GB用户文件 10GB(基本)+ 1GB用户文件 10GB(基本)+ 1GB用户文件 10GB(基本)+ 1GB用户文件 55 GB 如果我的理解是正确的,快照只存储基地之间的DIFF,所以会给: 10GB基地 〜1.1GB用户文件,日志更新等 〜1.1GB用户文件,日志更新等 〜1.1GB用户文件,日志更新等 〜1.1GB用户文件,日志更新等 〜1.1GB用户文件,日志更新等 15.5GB 快照解决scheme似乎非常优雅,如此高效地利用空间,而模板又是多余的。 长时间运行的快照真的很糟糕,有没有更好的方法来实现这一目标?
我很难理解vSphere中的高可用性共享存储。 我有以下工具包: 1个Mac mini(ESXi 5.5 – vSphere的一部分) 1个白盒PC(ESXi 5.5 – 使用光纤HBA的vSphere的一部分) 1台HP ProLiant微服务器(Nexentastor) 我希望能够在两台ESXi主机之间使用vMotion和HA。 但是,我希望在Mac mini上使用白色的白色盒式PC和iSCSI上的光纤通道(如果可以的话,我会很高兴地将光纤HBA添加到Mac mini上 – 该死的mac mini)。 目前我能够在iSCSI和光纤通道上看到来自Nexentastor的LUN,并能够创buildVMFS5数据存储。 我遇到的问题是在光纤通道和iSCSI上安装相同的数据存储(在相同的LUN上显示),这样两个ESXi主机都可以利用vMotion和HA。 这可能是不可能的。 如果有人有任何其他的想法,请让我知道。 我已经想过不得不放弃光纤通道,并完全采用iSCSI – 这不是理想的,因为我不得不购买更多的NIC或iSCSI HBA。 边注: 对于任何尝试这种configuration的人来说,使用Nexentastor的写入速度令人震惊。 通过在RAID卷上启用“同步”并禁用单独Zvols上的“同步”,写入速度将在整个屋顶中实现。 不知道这可能会有什么影响,但它的作品。 我省去了详细的networking信息,因为没有人愿意在这里阅读它的stream量负载。 ;)我们可以假设在这种情况下networking是好的。 谢谢你的帮助。
我目前有一个运行ESXi 5.5的戴尔Poweredge 2950。 我的数据存储是在启动时在PERC 6 / iconfiguration实用程序中configuration的RAID 5中的四个驱动器。 我的问题是,如果其中一个驱动器出现故障,我该怎么办? 我只是popup来,并在更换? 我需要做什么软件? 我听说戴尔OpenManage,但它似乎我不能安装它没有一个Windows vCenter中心服务器,这不会真的有道理,因为我只有一个ESXi服务器… 任何意见,将不胜感激。
所以,我正在构build一个基于freeNAS的iSCSI系统。 这是连接到几个(约20个)ESXi 5.5盒。 这些ESXi机箱只有启动驱动器和几Gb的本地存储器(类似30gb SSD)。 我正在升级networking,我发现iSCSI在1Gb / s和10Gb / s之间几乎没有select。 关于分配交换机已经有了一个10GB / s的骨干网,但是这个速度还不够快。 我已经研究了光纤通道,但是直到下一个版本,它似乎不被freeNAS支持。 有关1Gb / s和10Gb / s之间的iSCSI介质的build议?
我们正在运行一个Mongo 2.6副本集,其中有3个成员:小学,中学,仲裁者。 几乎每天我们的MongoDB都在切换哪个服务器是主要的,这导致到该DB的所有连接都被中断。 如果这样做是完全没有问题的,因为其中一台服务器确实停机了,但是在每种情况下,“下”服务器似乎并没有真正停机。 这是一直以来。 以下是我们所知道的: 所有3台服务器上的mongod进程都没有重启或closures。 服务器一直在向New Relic报告。 从mongo日志中我们看到频繁的心跳失败。 在任何时候,服务器都不是非常高的负载。 我看到每小时10分钟左右CPU每小时都会爆发一次,但这并不能排除故障。 以下是show log rs的结果,同时shell已插入到当前的主要show log rs中。 2015-05-17T15:05:49.339+0000 [rsBackgroundSync] replSet sync source problem: 10278 dbclient error communicating with server: server1:27017 2015-05-17T15:05:49.358+0000 [rsBackgroundSync] replSet syncing to: server1:27017 2015-05-17T15:05:56.444+0000 [rsBackgroundSync] replset setting syncSourceFeedback to server1:27017 2015-05-17T22:11:36.638+0000 [rsHealthPoll] replSet info server1:27017 is down (or slow to respond): 2015-05-17T22:11:36.644+0000 […]