是专用一个网卡到虚拟化的DC矫枉过正?

主机服务器:

  1. 双至强E5530的
  2. 24 GB拉姆
  3. 4个1GB网卡(由于100MB的交换机,运行在100MB)
  4. 具有Hyper-Vangular色的Server 2008 R2 Enterprise + BackupExec 2012备份到通过iSCSI连接的NAS

VM的:

  • 域控制器(也是DNS服务器)
  • 文件服务器
  • 数据库服务器
  • 两个应用服务器

当前NIC设置:

  • 1专用于主机操作系统的物理网卡,以便BackupExec可以做到这一点,而不会阻塞虚拟机。
  • 1个APP服务器之间共享的物理网卡。 (网卡使用高峰和低谷)
  • 1 SQL Server和文件服务器之间共享的物理网卡(两个最大带宽)
  • 1个专用于DC的物理网卡

问题:

  1. 是专用一个物理网卡的DC / DNS矫枉过正? 我有大约20个用户。
  2. 任何提示关于设置这整个事情更好?
  3. 有没有什么办法来优先考虑不同的虚拟机共享一个网卡?
  4. 我要在100MB上堆叠一个1GB的交换机。 3个物理服务器,NAS和那种东西将连接到1GB交换机。 用户将全部插入100MB交换机。 随着带宽的增加,我可以安全地将更多虚拟机放在一个物理网卡上,还是有其他因素需要考虑?

谢谢!

  1. 绑定所有虚拟机网卡并在机器之间共享是非常常见的。 通常有两个pipe理NIC接口也被绑定,但不能用于任何VMstream量。 这导致大多数VM服务器至less有6个NIC接口,而8到10并不less见。
  2. 是的,但不是现在你所拥有的,而且你可能对什么解决scheme不感兴趣。
  3. 不知道服务器上常见的实际用法,我不能肯定地说。 但是,这听起来很合理,尤其是考虑到上述情况。 请注意,如果您是100Mb交换机可以有任何forms的1Gb上行链接,我强烈build议您获得一对夫妇。 如果不是这样的话,那么从交换机到1Gb交换机至less要绑定几个100Mb的上行链路。
  1. 是。 考虑20个用户和一个域控制器之间产生了多lessstream量。 这并不多。
  2. 我更了解VMware,不太了解Hyper-V,但是VMware做这个的方法是将所有这些接口绑定/中继以实现访客stream量,然后根据需要对访客NIC进行VLAN划分。
  3. 你真的遇到什么问题吗? 从你的描述来看,这听起来像是你过早的优化。 这就是说,如果你的交换机支持它,你可以在那里做QoS优先级,我不知道,SQL通信也许?
  4. 不知道你的stream量是什么,我会说“可能几乎肯定是的”。

这是否过分了? 不,绝对不是。 你正在处理100Mb以太网,你可以使用更多的网卡。

我说,监视性能,必要时移动,然后把它作为达到千兆的目标。

另外…我假设你说“堆栈”时,你的意思是你通过某种“堆栈”机制将千兆交换机连接到现有的交换机,而不是通过菊花链连接,否则,你只会提高服务器到服务器的连接性,并使服务器对用户变差。