ESXi 5x群集硬件故障情况

你好,工友。

我有一个ESXi5.0群集设置与3个ESXi主机。 现在我需要为networking硬件故障创build一个testing用例,并在数据中心进行testing。

My Setup: 1) 3 DELL R820 Servers (all identical in the configuration and hardware) 2) PHYSICAL: Pair of 1GB ports for vSphere Management Network (active/standby) VIRTUAL: 1 VMkernel Port vmk0 on standard vSwitch0 3) PHYSICAL: Pair of 10GB ports for regular network communications between guests MESH(active/active using IP Hash load balancing connected to the redundant switches) VIRTUAL: dvSwitch0 with exposed and needed VLANs. 4) PHYSICAL: Pair of 10GB for storage NFS/VMDK (active/passive, Failover Only with "Link Status Only" network failure detection connected to different switches) VIRTUAL: 1 VMkernel port vmk1 connected to distibuted switch dvSwitch01 5) PHYSICAL: Pair of 10GB for storage (guest initiated) (active/active, load balancing is based on Port ID with "Link Status Only" network failure detection connected to different switches) HA and DRS enabled. 

我正计划只是经常拉电缆testing,但可能会缺less一些因素。 我将不胜感激任何build议和/或最佳做法来执行这样的testing。

– closures主机。 – testing高可用性和准入控制。

– closures一个开关。 – testing故障转移链接。

– 独立断开数据和存储networking电缆。 – testing弹性,负载平衡和数据存储心跳/主机隔离状态。 另外存储控制器故障转移。

当我们testing故障情况时,我们首先去除单独的电线/光纤,然后是整个NIC / HBA,然后是服务器,然后切换 – 即从小到大 – 只是因为如果平台不能处理小,那么在大的testing将是毫无意义的。

这就是说我看不到你的设置有任何问题,而不是像你已经解释过的那样。

我更多地采取大的做法 – 拔下服务器,然后在下一个尝试存储上,在最后一个交换机上 – 或者以任何其他顺序 – 如果系统能够存活 – >一切正常。 但如果你有很多的时间(和有人来支付),你可以尝试自己的每个小问题…

TSG