我们正在为我们的光纤通道架构获得一对新的8Gb交换机。 这是一件好事,因为我们的主要数据中心的端口已经用完了,而且至less可以让我们在两个数据中心之间运行至less一个8Gb ISL。
我们的两个数据中心距离光纤运行约3.2公里。 几年来,我们已经获得了稳定的4Gb服务,并且我也抱有很高的期望,能够支持8Gb。
我目前正在弄清楚如何重新configuration我们的结构来接受这些新的交换机。 由于几年前的成本决定,我们没有运行完全独立的双环路结构。 完全冗余的成本被认为比交换机故障的不太可能的停机时间更昂贵。 那个决定是在我的时代之前做出的,从那以后事情没有多大改善。
面对交换机故障(或FabricOS升级),我想借此机会使我们的结构更具弹性。
以下是我正在考虑的布局图。 蓝色的项目是新的,红色的项目是现有的链接,将(重新)移动。
FibreChannel digram http://sysadmin1138.net/images/fabric-option.png
红色箭头线是当前的ISL交换机链路,两个ISL来自同一个交换机。 EVA6100目前连接到两个具有ISL的16/4交换机。 新的交换机将允许我们在远程DC中有两个交换机,其中一个远程ISL正在移动到新交换机。
这样做的好处是,每台交换机与另一台交换机的距离不超过2跳,两个EVA-复制关系的EVA4400之间相距1跳。 图表中的EVA6100是一个较旧的设备,最终会被replace,可能还有另外一台EVA4400。
图表的下半部分是我们大部分服务器的地方,我对于确切的位置有一些担忧。 有什么需要去那里:
目前,ESX集群可以容忍多达3个,也许4个主机closures,然后再开始closures虚拟机。 令人高兴的是,一切都有MPIO打开。
目前的4Gb ISL链路还没有接近饱和,我注意到了。 这可能会改变两个EVA4400的复制,但至less有一个ISL将是8Gb。 看看我从EVA4400-AI中获得的性能,我很确定,即使有复制stream量,我们也很难跨越4Gb线路。
4节点文件服务集群在SAN1SW4上可以有两个节点,在SAN1SW1上可以有两个节点,因为这会使两个存储arrays都跳一跳。
10个ESX节点我有点头疼。 在SAN1SW4上有三个,在SAN1SW2上有三个,在SAN1SW1上有四个,是一种select,我很乐意听到关于布局的其他意见。 其中大部分都具有双端口FC卡,所以我可以双重运行几个节点。 不是所有的 ,但足以让一个单一的交换机失败,而不是所有的一切。
两个MS-SQL盒子需要在SAN1SW3和SAN1SW2上,因为它们需要靠近主存储器,而db-export性能不那么重要。
LTO4驱动器目前位于SW2上,距离其主拖缆2跳,所以我已经知道这是如何工作的。 那些可以留在SW2和SW3。
我不希望将图表的下半部分作为完全连接的拓扑,因为这会将我们的可用端口数从66减less到62,而SAN1SW1将是25%的ISL。 但如果强烈build议我可以走这条路。
更新:可能会有用的一些性能数字。 我有他们,我只是间隔,他们是有用的这种问题。
上图中的EVA4400-A具有以下function:
EVA6100更繁忙,因为它是ESX集群,MSSQL和整个Exchange 2007环境的家园。
我将不胜感激您的任何build议。
抱歉耽搁了。
看看你有什么和你想达到什么,我有几个想法,这是一个很好的图片第一…
所以这就是我的想法 – 有一些调整,但我的一般想法在那里 – 请随时回到我的任何澄清。