具有SAN和LANstream量的FCoE的10GbE是一个很好的解决scheme?

我正在build设一个小型的数据中心,我正在考虑10GbE。 我正在寻找一些关于这个决定的build议。

我将Infiniband,FC,10GbE和LACP与GigE进行了比较,最终10GbE似乎是目前最好的解决scheme。

谈到数据中心:它将有一个或两个存储(两个在故障转移的情况下),和三个1U机器运行一些pipe理程序(XenServer是我的最爱)。 虚拟机将在存储器中,所以虚拟机pipe理程序将从存储引导,或者我会在1U机器中放置一些小型SSD来加载虚拟机pipe理程序。

所以,这里的问题是:我有点困惑,我要买什么来build立networking。 我已经看到一些昂贵的交换机,比如Cisco Nexus 5000/7000具有很多function,但是我不知道我是否真的需要这个人。

我没有FC,所以购买没有“融合networking”技术的单个10GbE交换机是安全的。 或者我应该采取其中的一个让FCoE运行?

另一个问题:iSCSI over 10GbE会比FCoE好吗? (我正考虑FCoE更好,因为我们不使用FCoE中的IP堆栈)。

在此先感谢,我真的很欣赏这里的一些意见。

技术之间的决定应根据您的需求/预算/专业知识进行评估。 显然,您的select高度依赖于您拥有或将要购买的存储硬件types以及您的networking基础设施。 传统上,SAN由于其高速度而使用光纤通道,但随着10GbE的出现,以太网已成为可行的竞争者。 根据数据中心的利用率水平,您甚至可以放弃使用1GbE和MPIO,并可以稍后进行扩展。 大多数主要供应商会为您提供iSCSI,FCoE和FC产品之间的select,其中的select应基于您当前(或所需)的基础架构,并考虑到您的员工专业知识。

我不能评论Infiniband的使用,因为我自己从来没有使用过它,除了它的使用比其他技术更普遍,以及相应较less的供应商可供select。 一方面风险是find可以支持较less常见设备的人员。

就个人而言,如果您(和您的员工)在光纤通道方面没有经验(或现有的基础设施),我的build议是selectiSCSI产品,因为您的学习曲线(可能会降低实施成本)要低得多。 大多数人忘记了硬件成本与劳动力相比微不足道。 我花费的人力成本比我的硬件预算多十倍,所以如果某种types的硬件价格稍贵一些,但是我的员工很容易理解(或者我可以更容易地find某个人去工作),那就成了明显的select。 当然,除非你正在寻找一个新的学习机会。 :P

为什么?

鉴于高价格和低带宽,我总是会selectInfiniband 10g。 加上一个1g的outlink – 除非你有超过1g的上行链路带宽。

由于其他限制,我在某些服务器上使用10g(大多数 – 几乎都是1g,我们使用的Netgear TXS 752作为主干网具有4x10g的spf +),而网卡的价格因素是 – ouch。 比起更快的Infiniband。

我在这里和汤姆在一起! IB(甚至是古老的)与10GbE相比更便宜,更快。

人们从基本上便宜的装备中得到一些好的数字:

http://forums.servethehome.com/networking/1758- $ 67-ddr-infiniband-windows-1-920mb-s-43k-iops.html

问题是TCP over IB过高(杀死性能增加了巨大的延迟),本地IB支持非常有限。 SMB Direct与Windows Server 2012 R2是伟大的(当它工作)。

如果您拥有现有的FC基础架构,并且需要将FC LUN提供给新服务器,并且他们没有FC HBA(或者您的FC交换机上的许可FC端口用完,那么FCoE是有意义的)。 因此,您需要10 GbE,并运行FCoE以降低FC设备上的成本。 从头开始FCoE是毫无意义的,运行iSCSI(或RDMA的SMB Direct,如果你在“黑暗的一面”)超过10 GbE,并很高兴。 使用最新的体面的多GHz和多核CPU以及至less部分卸载到NIC ASIC的TCP和iSCSI,在TCP上存储和原始以太网存储之间没有什么不同。 祝你好运,我的朋友!