我们刚刚收到我们的新服务器来开始我们的Hyper-V部署。 build议在服务器上安装4个网卡。 该服务器有2个板载Broadcom nics和2个pci英特尔Pro nics。
Broadcom软件将支持broadcom和intel nics的合作。
问题是,有没有人与Hyper-V合作获得巨大成功? 我读过很多故事。 如果Hyper-V合作(我知道MS不支持),使用Broadcom软件和nicconfiguration的最佳select是什么? 负载均衡? 链路聚合? 不知道我是否应该使用团队?
谢谢
为了成功 ! 我们的Hyper-V主机都是这样configuration的:
所有configuration为最less队列深度发送,故障转移接收。 每个function都在单独的vlan上(所有连接都转到同一个交换机堆栈)。 所有的Broadcom芯片,没有任何反对英特尔,我只是在关键生产系统混合硬件偏执狂。
如果pipe理团队和心跳团队分开,这将与MSbuild议的一致(根据我的消息来源)。 在我的观点中,将这两个使用很less的函数放在不同的团队中是有点矫枉过正的,所以我们将它们结合起来。 如果stream量要求,我会添加额外的NIC /端口到Hyper-V团队。 如果你的交换机堆栈支持InterSwitch Trunking,你应该使用LACP而不是Least Queue Depth(循环也是一个选项,尽pipe我不推荐它)。
当你有一些共享存储时,最好使用组合。
我喜欢将两个(或更多)nics组合回存储设备,然后使用1个nic进行hyper-v(或更多,取决于您的场景)和一个单独的nic进行pipe理。
在你的情况下,我可能只想用1个nic来pipe理hyper-v和1个。
我们在Hyper-V Server 2008 R2集群中安装了两个Dell R410,其中两个集成了用于LAN访问的Broadcom NIC以及一个用于iscsi存储networking的4端口Intel NIC。
英特尔网卡在独立的子网上彼此独立configuration,以便与我们的SAN一起用于MPIO。
使用BACS实用程序和LACPconfiguration将两个Broadcom NIC组合在一起。 在交换机端,我们有一个3COM 3848提供LACPconfiguration的另一端。
这个设置自2010年12月26日以来一直运行,到目前为止一直没有问题。