Hyper-V和Broadcom和英特尔?

我们刚刚收到我们的新服务器来开始我们的Hyper-V部署。 build议在服务器上安装4个网卡。 该服务器有2个板载Broadcom nics和2个pci英特尔Pro nics。

Broadcom软件将支持broadcom和intel nics的合作。

问题是,有没有人与Hyper-V合作获得巨大成功? 我读过很多故事。 如果Hyper-V合作(我知道MS不支持),使用Broadcom软件和nicconfiguration的最佳select是什么? 负载均衡? 链路聚合? 不知道我是否应该使用团队?

谢谢

为了成功 ! 我们的Hyper-V主机都是这样configuration的:

  • 带有iSOE的iSCSI网卡 – 此网卡具有两个端口,但网卡冗余; MPIO处理冗余,所以不要在这里组队。
  • 带有TOE的两个双端口网卡 – 这些组合在一起,每个控制器一个端口,两个组。 一个团队用于Hyper-V访客stream量。 另一个是pipe理和心跳stream量(集群系统)。

所有configuration为最less队列深度发送,故障转移接收。 每个function都在单独的vlan上(所有连接都转到同一个交换机堆栈)。 所有的Broadcom芯片,没有任何反对英特尔,我只是在关键生产系统混合硬件偏执狂。

如果pipe理团队和心跳团队分开,这将与MSbuild议的一致(根据我的消息来源)。 在我的观点中,将这两个使用很less的函数放在不同的团队中是有点矫枉过正的,所以我们将它们结合起来。 如果stream量要求,我会添加额外的NIC /端口到Hyper-V团队。 如果你的交换机堆栈支持InterSwitch Trunking,你应该使用LACP而不是Least Queue Depth(循环也是一个选项,尽pipe我不推荐它)。

当你有一些共享存储时,最好使用组合。

我喜欢将两个(或更多)nics组合回存储设备,然后使用1个nic进行hyper-v(或更多,取决于您的场景)和一个单独的nic进行pipe理。

在你的情况下,我可能只想用1个nic来pipe理hyper-v和1个。

我们在Hyper-V Server 2008 R2集群中安装了两个Dell R410,其中两个集成了用于LAN访问的Broadcom NIC以及一个用于iscsi存储networking的4端口Intel NIC。

英特尔网卡在独立的子网上彼此独立configuration,以便与我们的SAN一起用于MPIO。

使用BACS实用程序和LACPconfiguration将两个Broadcom NIC组合在一起。 在交换机端,我们有一个3COM 3848提供LACPconfiguration的另一端。

这个设置自2010年12月26日以来一直运行,到目前为止一直没有问题。