用于iSCSI的VMWare vSphere 5:4 pNIC与2个pNIC

对于我来说,以前从来没有使用过的新SAN:它是一个IBM DS3512双控制器,每个控制器带有一个四路1GbE NIC,客户需要购买这些控制器并需要帮助。

主机(x2)有8个pNIC,而我通常为每个主机预留2个pNIC(其中2个用于VM,2个用于pipe理,2个用于vMotion,跨适配器交错),SAN上的这些额外端口让我想知道存储I /如果每个主机有两个额外的NIC,或者如果vmkernel / initiator的限制会阻止额外的多path实现的话,O将会得到显着的改善。

我没有看到每个主机有4个pNIC iSCSI实现, 2是我在网上阅读/看到的事实标准。 我可能也可能会做一些I / Otesting,但是只是想知道是否有人在很久以前(即在10GbE之前)发现了一个让每个主机设置4个NIC的iSCSI有点毫无意义的“墙”。

只是为了澄清:我不是在寻找一个怎么样的,而是一个解释(链接到论文,VMWare的build议,基准等)为什么2-NICconfiguration是规范与4-NIC iSCSIconfiguration。 即存储供应商限制,VMKernel /启动器限制等。

如果我处于您的位置,我将评估I / O需求是否超过了由两个物理NICS和1GbE iSCSI提供的带宽和pathselect。 老实说,我现在比任何东西都使用10GbE,但是通过适当的MPIOconfiguration,添加额外的iSCSI端口没有什么坏处。

什么是您的VMWare许可证级别? 例如,如果你不使用DRS,其中一些可能是没有意义的。

至于使多pathiSCSI更有效,您需要将pathselect更改为循环,并在将path从缺省值1000切换到1之前减lessI / O操作的数量…这就是我使用的惠普和其他SAN解决scheme。

IBM DS3512特定的实施指南在这里。

只要你坚持“不同的子网和networking适配器上的每个path”规则,这应该工作正常。

  • 定义4个IP子网(理想情况下每个子网都在自己的VLAN或物理交换机上)。
  • 对于每个存储控制器:
    • 将端口1连接到子网1,将端口2连接到子网2等
    • configuration每个端口在正确的IP子网中有一个IP地址
  • 对于每个主机:
    • 定义用于iSCSI的端口。
    • 将端口1连接到子网1,将端口2连接到子网2等
    • 创build4个vSwitch
    • 将每个vSwitch绑定到其中一个物理端口
    • 为每个vSwitch创build一个VMkernel端口
    • 将VMkernel端口configuration为在正确的IP子网中具有IP地址

然后进行iSCSI连接。