Articles of 10gbethernet

具有SAN和LANstream量的FCoE的10GbE是一个很好的解决scheme?

我正在build设一个小型的数据中心,我正在考虑10GbE。 我正在寻找一些关于这个决定的build议。 我将Infiniband,FC,10GbE和LACP与GigE进行了比较,最终10GbE似乎是目前最好的解决scheme。 谈到数据中心:它将有一个或两个存储(两个在故障转移的情况下),和三个1U机器运行一些pipe理程序(XenServer是我的最爱)。 虚拟机将在存储器中,所以虚拟机pipe理程序将从存储引导,或者我会在1U机器中放置一些小型SSD来加载虚拟机pipe理程序。 所以,这里的问题是:我有点困惑,我要买什么来build立networking。 我已经看到一些昂贵的交换机,比如Cisco Nexus 5000/7000具有很多function,但是我不知道我是否真的需要这个人。 我没有FC,所以购买没有“融合networking”技术的单个10GbE交换机是安全的。 或者我应该采取其中的一个让FCoE运行? 另一个问题:iSCSI over 10GbE会比FCoE好吗? (我正考虑FCoE更好,因为我们不使用FCoE中的IP堆栈)。 在此先感谢,我真的很欣赏这里的一些意见。

来自单个快速链路的多个连接的LACP带宽

有没有办法从相同的IP / MAC获得多个TCP连接来使用LACPconfiguration中的所有物理链路? 这是我的设置: 中央交换机(Meraki MS42P)有一个10GbE链接到一个服务器和一个10GbE链接到接入交换机(Cisco 2960-CX)在大厦的另一边。 第二台服务器在接入交换机上使用4 x 1GbE的LACPconfiguration。 如果我从networking中的任何位置的多个1GbE客户端打开一个连接,则可以饱和4个1GbE聚合链路(即,最多4个客户端同时获得全部1Gb)。 但是,如果我从第一台服务器(连接到交换机的单个10GbE链路)同时打开4个TCP连接到第二台服务器,则它们总是共享一个1GbE链路。

我必须成对安装SFP +收发器吗?

我正在将机架中的交换机扩展到10 GbE光纤互联网馈送。 特别: 我们有一个HP 2910al 将使用J9008A 2端口10GbE SFP +模块扩展交换机 将插入1(2?) J9150A 10Gbase-SR接收器 我们的惠普供应商告诉我们,我们需要两个收发器,但我找不到任何文档。 而收发器的图像似乎表明每个人都有两个物理电缆端口。 但… 从来没有真正与10GbE,光纤或SFP +一起工作,之前我以为我会在服务器故障这里放置任何订单之前的棺材。 请免于浪费时间和/或金钱! 我必须成对安装SFP +收发器吗?

用光纤直接连接10GBE

我有两台服务器,我希望直接连接10GBE。 一台服务器具有安装双SFP +可插拔收发器的Oracle Sun 10GBE(Intel 82599)。 另一个没有安装收发器的HP 10GB MELLANOX CONNECTX-2。 我打算把一个收发器从太阳移动到Mellanox。 我可以直接用光纤连接两个接口,如果是这样的光纤电缆? 如果不是,我需要什么样的电缆?

数据中心环境中的Whitebox防火墙

我正在研究商业防火墙设备的替代品。 大多数在线可用资源描述了家庭networking防火墙或千兆以太网。 考虑到10GbE正在成为标准的服务器连接,是否有可能达到与使用白盒的专用设备相同的性能水平? 这个问题是特定于数据中心环境的,这意味着: 服务器级硬件 10到40GbEnetworking 其他要求: OpenSource操作系统 OpenSource防火墙软件 我知道从服务器获得10 Gbps的速度已经非常困难,但是可以在不使用专用硬件的情况下过滤这些stream量。 等待时间是否等于或至less与商用电器的数量级相同? 你们中的一些人在生产中运行这种设置吗? 开始之前有哪些缺陷和事情需要了解? 我重写了原来的一个缩小范围的问题: 是否有可能在数据中心networking(10GbE或更高)中运行基于OpenBSD的防火墙,并获得与Cisco ASA,Juniper SRX等设备相同或更好的延迟/带宽。

基本的多播networking性能问题

我一直在使用29west的mtools软件包中的mpong来获得一些思科多种Cisco交换机的基本组播延迟:1Gb 2960G,10Gb 4900M和10Gb Nexus N5548P。 1Gb仅供比较。 我在每台交换机上有〜400次mpong运行结果(发送65536个“ping”类消息给一个接收器,然后发送回来 – 遍历多播),我有以下结果。 数字是以微秒为单位的延迟。 Switch Average StdDev Min Max 2960 (1Gb) 109.68463 0.092816 109.4328 109.9464 4900M (10Gb) 705.52359 1.607976 703.7693 722.1514 NX 5548(10Gb) 58.563774 0.328242 57.77603 59.32207 4900M的结果是非常令人惊讶的。 我试过单播ping,我发现4900比N5548P有更高的延迟(平均73us vs 64us)。 Iperf(没有试图调整它)显示两个10Gb交换机给我9.4Gbps线路速度。 这两台机器连接到同一个交换机,我们没有做任何组播路由。 操作系统是RHEL 6. 10Gb网卡是HP 10GbE PCI-E G2双端口网卡(我相信它们是重新命名的Mellanox卡)。 4900交换机用于严格访问控制的项目中,所以我在等待批准之后才能访问并检查configuration。 另外两个我有完全的configuration权限。 我已经看了思科文档[1],详细介绍了NX-OS和IOS之间的差异,所以我有一些想法尝试,但这不是一个我有很多专业知识的领域。 有没有人有任何想法,我应该看看,一旦我得到访问交换机? [1] http://docwiki.cisco.com/wiki/Cisco_NX-OS/IOS_Multicast_Comparison 编辑(格林尼治标准时间09年1月12日) 4900M启用了IGMP侦听。 我看不到交换机或服务器上的计数器丢包或错误。 我看了一下CPU的使用情况,发送ping消息的时候似乎是94%。 […]

Linux专家之谜:10GB / s网卡上的networking输出为10MB / s

我有两个CentOS 6服务器。 我正在尝试在它们之间传输文件。 源服务器有10GB / s的NIC nd目标服务器有1GB / s的NIC。 无论使用的命令还是协议,传输速度都是每秒约1兆字节。 目标是每秒至less几十MB。 我已经尝试:rsync(也用各种encryption),scp,wget,aftp,nc。 以下是iperf的一些testing结果: [root@serv ~]# iperf -c XXX.XXX.XXX.XXX -i 1 ———————————————————— Client connecting to XXX.XXX.XXX.XXX, TCP port 5001 TCP window size: 64.0 KByte (default) ———————————————————— [ 3] local XXX.XXX.XXX.XXX port 33180 connected with XXX.XXX.XXX.XXX port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0- 1.0 […]

存储networking停止传输stream量

我有一个麻烦的问题。 我有一个服务于VMWare vSphere 5.1环境的10Gb存储networking。 存储:带有Chelseio T320 10Gb NIC的TrueNAS(NFS) 存储: Dell PowerVault MD3600i(iSCSI) networking: XSM7224S 10GB交换机 VMWare硬件:三个Supermicro服务器,每个服务器有两个hex处理器和192Gb RAM。 VMWare 10gb Nics: Chelsio T420-LL-CR 会发生什么事情:存储networking设备每个星期一次到一个月一次,停止传输stream量,并全部在一团火焰中熄灭。 发生这种情况时,设备中的任何设备都不能在存储networking上互相ping通。 就好像交换机closures所有端口或停止工作,但重新启动交换机什么也不做。 linux和vmware系统中的networking状态报告“Up”状态,但无论如何,重新启动networking接口都无能为力。 我必须重新启动所有涉及的服务器,包括TrueNAS,但不包括Dell Powervault,然后它将重新联机并且networking开始stream动。 我做了什么:这已经持续了一段时间,在那段时间,我已经replace了所有的Nics(320,升级到了420的),更换了开关(dell PC 8100),更换了电缆,并添加了戴尔PowerVault MD3600i。 TrueNAS作为主存储器,但现在属于PowerVault,而且TrueNAS作为系统备份的存储器。 没有日志给出任何暗示正在发生的事情。 交换机没有任何冲突或数据包传输错误可言。 但不pipe如何,这个问题依然存在。 我还有什么要做的:今天晚上,我将用备用的备件replaceTrueNAS上的chelsio T320网卡。 我还打算将我的Dell PowerConnect 8100 10Gb交换机重新接入,并将TrueNASnetworking隔离到该交换机上,这是因为TrueNAS目前是这个问题中唯一不变的常数。 我是否错过了一些东西?:我有这个想法,并希望把这个问题扔到社区,看看我是否过度了解这个问题,或者是否有一些想法来帮助确定问题。 我正在失去相当多的睡眠和头发。 我已经看到坏的尼克的networking,但几乎总是可以很容易地看到在交换机端口统计碰撞。 谢谢! 布拉德

10GbE be2net低pktgen性能

我正在testing两台工作站的networking性能,每台工作站都有2.4GHz Xeon四核处理器和NC550SFP PCIe双端口10GbE服务器适配器,并且背靠背连接。 我已经检查了内存的带宽,这是〜12Gbps,所以在这里没有瓶颈。 PCIe总线速度也可以。 我正在使用UDP的最小数据包大小来testing最大pps,结果与这些比较是可怜的:2012-lpc-networking-qdisc-fastabend.pdf(对不起,我只能发布一个链接)。 如果我增加数据包大小和MTU,我可以得到近线速度(约9.9Gbps)。 我使用pktgen与NST脚本,macvlan接口multithreading,我只得到〜1Mpps,所有四个核心在100%。 为了提高pktgen的TX性能,我偶然发现了这个文档: 在Linux Networking Stack中进行扩展 我已经检查,是的,我有mq qdiscs,应该产生最高的性能: # ip link list | grep eth3 5: eth3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 我认为问题在于,只有一个TX队列被使用: # dmesg | grep be2net [ 4.528058] be2net 0000:01:00.1: irq 47 for MSI/MSI-X [ 4.528066] be2net 0000:01:00.1: irq 48 for MSI/MSI-X [ […]

Procurve 5400 10GB

我需要一些10GB连接的帮助。 我实际上在V2版本模块上有一个带有一些端口SFP +的Procurve 5400zl系列。 我们迫切需要连接一个服务器与PCI-X插槽。 我可以做什么有一个10GB的链接? 如果可能的话,我想使用现有的交换机端(平均SFP +)硬件,但我怀疑SFP + DAC(带有SFP +服务器适配器)将无法正常工作。