具有故障转移function的Hyper-V群集 – NETWORKING

我们正在设置一个3节点Hyper-V群集,其中包含实时迁移和故障转移:

  • 3个戴尔R710的双核四Xeon&128 GB内存和6个网卡在每个
  • 1个戴尔MD 3220i SAN

我们将从数据中心运行此设置,因此共同定位我们的套件。

任何人都可以解释我们应该如何设置networking连接,使系统冗余?

我们已经看过这篇很棒的文章,但不知道如何正确可靠地获得3服务器设置: http : //faultbucket.ca/2011/01/hyper-v-failover-cluster-setup/ 。

我相信我们需要networking连接:实时迁移,心跳,pipe理,超v等。

我假设我们从DC运行它所有IP将必须是公共IP?

AD服务器将是虚拟机。 在每个Hyper-V服务器上安装一个,并且不要成为HA。

我去过那儿! 去年,我用一个iSCSI SAN为Hyper Vbuild立了一个类似的集群(除了我的盒子是Fujitsu)。

事实上并不难,但一路上会遇到困难。 如果你正在同心协力,那么我肯定会在你自己的办公室里把你的安装排练到服务器机架上,然后再把它移到数据中心(我使用了隔音服务器机柜)。

哦,还有一件事情正在准备中,你不要提到这一点,但是我不打扰的一件事是在一些iSCSI系统上提供的iSCSI启动。 这是一个痛苦的build立,并不总是与冗余工作。 最好在节点上安装一个或两个物理启动盘,以便在出现networkingconfiguration问题或iSCSI问题时,仍然可以启动它们。 我在每台服务器中都使用小型(40GB)固态驱动器作为启动盘。

你肯定需要一个单独的AD DC。 实际上,我从一个3节点集群开始,然后将其限制为2个节点,另外还有一个在DPM 2010上运行备份的非集群“主节点”和一个虚拟DC。

你提到6个端口,这可能就够了。 但是,让我来说明我的节点configuration有10个端口:

  • iSCSInetworking每个节点始终需要2个端口(每个节点属于不同的MPIO冗余子网,并且应位于不同的NIC上)
  • 1个心跳端口,没有任何其他stream量
  • 1个端口用于实时迁移和传输(这是唯一一个您可能想要升级到10g或infiniband的服务器,但除非您每天部署10个虚拟机,否则不值得)
  • 1个端口用于远程桌面访问
  • 1个端口用于服务器pipe理卡
  • 1组构成主要接入networking的组合端口*
  • 1组构成DMZnetworking的组端口(可选)*

诽谤者经常指出,微软没有正式支持端口合作(而VMWare),但官方的说法是,他们并没有阻止它,而只是觉得支持掌握在网卡厂商手中。 我使用属于ET一代的英特尔网卡,它具有特定的虚拟networkingfunction,我发现Hyper V的工作非常好。它们实际上允许您在交换机之间拆分一个组,以便在其中一台交换机出现故障时,您拥有一致的组访问权限,有点像MPIO,但对于虚拟机。

Hyper V实际上非常有弹性并且很好用。 我将按以下顺序处理您的工作:1)单独设置节点,安装iSCSI启动器,安装MPIO,为您的iSCSI端口,传输和热插拔端口,pipe理端口提供不同的子网地址。
2)设置Hyper V并将您select的端口分配给您的虚拟networking 3)然后运行集群validation向导并形成集群。

您应该始终将端口分配给您的虚拟networking,因为这会阻止它们被群集使用。 这听起来反直觉,但基本上你将保持你的虚拟networking不可知的集群networking。 这仍然给你冗余,所以不要担心。 但是为了达到这个目的(没有别的方法),你将不得不为你的集群和超V(每个冗余两个)分别设置一组交换机,否则你将需要在交换机上设置VLAN。 我做后者(使用未标记的VLAN),它工作得很好。

这里的其他一些postbuild议你使用一个顾问来完成这项工作。 如果他们熟悉Hyper V,这可能是一个好主意。 它不会给你从DIY中获得的深奥的知识,但它会为你节省时间。 去年我有足够的时间,而且我并不尴尬地承认,花了我好几个月的时间,把事情搞清楚了,才把它搞好了。

祝你好运!

欢迎来到一个痛苦的世界。 当你处在一个痛苦的世界里时,你会做出一个会毁掉你的经验的茉莉花,而不是通过思考。

AD服务器将是虚拟机。 在每个Hyper-V服务器上安装一个,并且不要成为HA

想想你在那里做什么。 Windows群集需要启动AD,因为configuration位于AD中。 如果因为任何原因数据中心电源故障,当它恢复时,由于没有准备好AD服务器,CLASTER将不会启动。 你必须百分之百地小心这个。

我强烈build议你保留一个额外的小型机器(Atom基础,如果有的话)作为控制AD(即重要angular色)与单独的USV。 CLustering工程很好,但所有AD控制器在虚拟机的问题要求麻烦。

http://technet.microsoft.com/en-us/library/ff428137(WS.10).aspx

有你需要的指导。 最重要的是,考虑使用一个快速的networking骨干网。 不,不是10克…太慢,太贵了。 获得一组不错的Infiniband卡,一个Infiniband开关,并且快乐地与FAST传输。

SAN的IOPS也可能太小。 如果你在两台机器上进行100%的加载(一个保留)这是很多虚拟机的。 你必须确保你的IOPS预算符合这个要求。 我有一个单一的64GB主机上的6 10K猛禽RAID 10的时间有问题 – 你运行4倍的内存预算,所以我希望有4-6倍的IOPS需求(我没有数据库,那些是分开的)。 确保你知道SAN方面是够好的。

我正在阅读有关相同的networkingconfiguration,这里简单地说我认为是正确的。 如果我错了,请纠正我。

  • 2(etherchannel / hp trunked)进行实时迁移
  • 2(etherchannel / hp中继)进行正常的networking连接
  • 2的SAN,没有以太网服务器可以做MPIO

使用两个开关。 如果无法堆栈,请在它们之间创build一个etherchannel / hp trunk,并使用(至less)与此端口一样多的端口,因为这对您的SAN有效。 端口为此。

  • 在SAN的端口上和服务器上的SAN上,启用巨帧和stream量控制。 这也应该在交换机间链路上设置。
  • 交换机端口应该是etherchannels / hp中继端口,我认为巨型帧和stream量控制都启用
  • 实时迁移链接etherchanneled(hp干线),巨型帧和stream量控制。

closures交换机上的单播风暴控制。 如果可能,请使用其他交换机进行networking连接。 禁用生成树协议。

对于3220i SAN,我认为它有4个千兆端口,每个控制器上有两个端口。 我认为这是一个主动的被动,如果每个控制器的网卡连接到每一个交换机。

忘了提及你应该在不同的VLAN上分离实时迁移和SAN。 避免默认VLAN(1)。 使用好的开关,缓冲区(或其他)对性能有相当大的影响(所以我读了)。

你看了下面

http://technet.microsoft.com/en-us/library/ff428137(WS.10).aspx

我觉得很难搞砸hyper-v集群,所以去吧。

虽然Windows群集确实需要启动AD,但是可以使其在2节点完全虚拟化的环境中运行良好。

我将提出这些build议,这对我们的内部networking和我们的客户networking都起到了很好的作用: – 在集群的每个节点上预留足够的磁盘空间和I / O,以运行本地DC。 这样,集群服务从来没有find要查询的东西。 – 将群集服务设置为“自动(延迟启动)”。 这样,Hyper-V在集群服务之前有一点额外的时间来启动。