如何为NFS支持的VMware ESXi存储启用多pathI / O?

现在我有3台VMware ESXi主机使用4Gb光纤通道连接到我们的NetApp进行存储。 我想通过10Gb以太网切换到NFS。

每个ESXi服务器都有两个10Gb以太网端口,我的NetApp上的每个控制器都有两个10Gb以太网端口。 我需要得到的唯一一件事是以太网交换机。

我想有两个以太网交换机冗余,所以如果一个交换机死亡,存储将仍然工作,相同的双交换机光纤通道多pathI / OI现在。

但是,你如何通过以太网为NFS做同样的事情呢? 我知道如何处理ESXi方面和NetApp方面的问题,只是交换方面,我不知道该怎么做。

我知道如何做一个LACP干线/以太网通道绑定,但是在物理独立交换机之间不起作用。

那么,你能推荐一对Cisco交换机用于这个目的,以及我用来启用这种多pathNFS I / O的Cisco IOSfunction吗? 我希望交换机至less有12个10Gb端口。 我知道这些交换机将是巨大的,没关系。

我公司刚刚扩展了我们的思科4507机箱交换机,通过添加另一个监控引擎和6端口10GbE线卡来适应存储networking(VMWare和NexentaStor / ZFS)。 我知道这不是多交换机的安排,但是获得我们需要的端口数是一个好方法。 在业内其他地方,似乎思科Nexus和4900M在您所要求的解决scheme中很受欢迎。

本文档特定于Linux bonding驱动程序,但它具有关于configuration可靠的networking拓扑(如您所请求的)的一些很好的信息。

看起来你可能能够在你的netapps上使用“单模式接口组”来做你想做的事情。 在任何时候,只有一个10GB的接口可以使用,如果失败了,文件pipe理器将开始使用第二个接口。 这看起来像这样:

 vif create single vif0 e0a e0c 

你有你的文件pipe理器和ESX主机,每个交换机都有一个连接。

[该语法适用于Data ONTAP 7.1或更高版本( 此处logging ); 它可能在以后的版本中有所改变。]

如果你还没有,你可能需要与Netapp的支持。 我并不是100%相信,这将在多交换机拓扑结构中做正确的事情,但似乎理智。