Articles of 10gbethernet

10 GigE接口将ProCurve 4208vl上的单连接吞吐量限制为1 Gb

设置如下:3台配有英特尔CX4 10 GigE控制器的Linux服务器和一台配有Myricom 10 GigE CX4控制器的X服务器连接到ProCurve 4208vl交换机,其他无数台机器通过良好的1000 base-T 。 根据交换机监控接口和服务器(ethtool等),接口实际上被设置为10Gig。 然而,通过交换机配备的两台配备10 GigE的机器之间的单个连接仅限于1Gb。 如果我将10台GigE机器中的两台直接连接到CX4电缆,则netperf会将链路带宽报告为9000 Mb / s。 NFS达到约550 MB / s的传输。 但是当我使用交换机时,通过netperf以950 Mb / s的速度连接,NFS以110 MB / s的速度连接。 当我从3台机器打开几个连接到4台时,我获得了350 MB / s的NFS传输速度。 因此,每个10 GigE端口实际上可以达到远远超过1 Gb,但单个连接严格限制为1 Gb。 结论:通过交换机的10 GigE连接的行为完全像10个1 Gb连接的中继。 这对我来说没有任何意义,除非HP只为级联交换机规划这些端口,或严格限制多客户端到单服务器连接。 不幸的是,这不是设想的设置,我们需要从机器到机器的大吞吐量。 这是一个不被人们所熟知的(或小心隐藏的)这种types的开关的限制吗? 我应该向惠普代表build议seppuku? 有没有人有任何想法如何使适当的行为? 我从保税的1Gb链接升级到10 GigE,并且看到完全的ZERO增益! 这绝对是不可接受的。

如何判断网卡是否启用了multiqueue?

任何人都可以告诉我什么命令我运行,以确定如果我的10G网卡运行在单RX-TX队列模式或multiqueue? 它看起来像根据cat /proc/interrupts只有1个RX / TX队列 root@vwsl-sec-ids01:scripts]# cat /proc/interrupts | grep ens1f0 94: 360389979 0 0 0 184 0 330 0 0 0 0 0 0 0 0 0 0 169 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge ens1f0-TxRx-0 95: 4 0 0 0 0 0 0 0 […]

有没有解决scheme可以在单个设备中结合千兆以太网,万兆以太网和光纤通道?

我们目前有Brocade 200E光纤交换机,将2个EMC CLARiiON连接到4台VMware ESXi主机。 我们正在考虑使用iSCSI与我们现有的以太网networking的新的存储选项,包括逐步升级到10千兆的可能性。 我一直在寻找任何种类的10GBASE-T交换机,这种交换机可向后兼容1千兆位,并且还包括连接Brocades / CLARiiON所需的光纤通道端口。 我对存储pipe理和光纤通道并不是很有经验,所以我理解这个问题可能会有一个明显的答案“不”,但看起来好像Cisco Nexus 5010带有一个模块( N5K-M1008 )可能工作。 我也想过使用一个10Gb交换机( Dell Powerconnect 8024 ),它具有SFP端口用于上行链路到其他交换机。 这些SFP端口是否可以连接到博科的光纤端口(不一定只在这个戴尔交换机上,而是像这样的交换机上),还是只能作为同一型号的上行链路工作? 任何对光纤交换细节的了解,以及光纤端口如何分类都将有所帮助。 编辑:我已经拒绝评论,因为我正在从答案中学习很多,并希望能够尽我所能澄清。 我不一定需要一个简单的交换机,但更多的可以做到这一点(所以具有必要的模块的思科Nexus可以工作)的单个设备。 此外,似乎这个function,我需要我的新存储能够支持10Gbps链接的FCoE,以便它可以通过FC到达我的主机。 我知道在FC交换机上分区的权利可能过于复杂,但我想看看我对这些技术的理解是否正确。 因此,假设这可以实现,具有10Gbps端口的Nexus交换机以及连接到现有FC交换机的模块的FC端口能够将新的存储设备(可以说FCoE)连接到我现有的主机?

请揭开10Gb以太网接口,电缆的神秘面纱

这真的是一个戴尔的问题,但试图问@专家@ serverfault。 select一个Dell powerconnect 8024 10GbE交换机。 每个规格表有10GbaseT端口。 “具有4个SFP +(10Gb / 1Gb)或10GBASE-T组合端口的10GBASE-T(10Gb / 1Gb / 100Mb) 我的存储服务器上的HBA具有10G CX4铜质端口 戴尔不销售任何电缆,这增加了我的困惑。 从图片戴尔8024似乎有前面板上的RJ-45型端口? 我的问题是:是RJ-45 + CX4电缆还是CX4 + CX4电缆?

新的办公室布线:我们应该使用CAT7还是CAT6a?

我们将在新办公楼内进行布线,因为我们使用了带有10Gbit以太网端口的HP交换机,所以我们正在考虑铺设10Gbit的电缆。 我们也会放下一些光纤电缆,以防万一:)。 我们现在想知道的是,我们应该使用CAT6e还是CAT7电缆10Gbit? 它们是向后兼容的吗,也就是说,我们可以使用1Gbit swiches / PCs / Servers吗? 谢谢。

如何实现到同一台服务器的多个NFS / TCP连接?

我试图通过一个10Gbps链路来最大化Linux客户端和单个NFS服务器之间的NFS / TCP带宽。 尽pipe每个NFS挂载都有自己的设备(主要/次要),但是一切都归结为单个TCP连接,这是一个瓶颈。 使用iperf和多个TCP连接,我可以达到〜8Gbps,但NFS卡在一个单一的TCPstream,并限制在〜2Gbps(没有TCP调整呢)。 在Solaris上,有系统设置rpcmod:clnt_max_conns ,它允许设置系统可以使用多less并发的TCP连接到单个NFS服务器。 有没有一个相当于Linux的方法呢? 作为一种解决方法,我知道我可以在NFS服务器上设置多个IP,然后在它们上对这些挂载点进行负载平衡,但这不是最佳的。

不稳定的10Gb铜缆链路,Broadcom和Intel卡到Cisco 4900M交换机

我们购买了一些带有QLogic / Broadcom BCM57810 PCI Express卡的戴尔PowerEdge R730服务器,并将它们连接到思科4900M交换机–10Gb链路无法可靠工作。 他们有时候不会连接,有时会在几分钟后连接,当他们连接时,他们每天会下降几次。 断开连接可以持续4分钟或2小时。 思科交换机现有的10Gb铜缆链接到戴尔PowerVault SAN,已经稳定并且可以工作数月。 我看到VMware日志中的断开连接如下所示: bnx2x 0000:82:00.1: vmnic5: NIC Link is Down 和 network connectivity on virtual switch "vSwitch2". Physical NIC vmnic5 is down. 我看不到任何有用的错误代码或之前的消息,只有链接引起的消息下降。 在Windows上,它显示为断开连接的卡,在交换机上显示为断开连接的交换机端口。 当链接连接时,它们工作 – 巨型帧ping,iSCSI会话build立,数据存储显示所有find的path。 但连接是间歇性的。 我们检查了: 电缆: 原来是Cat5e单电缆,现在是Cat6结构化布线。 电缆总长度<7米。 连接一根新的电缆,主机可以在没有任何连接点和接点的情况下进行切换,也不需要连接其他线缆 司机/操作系统: 最初的VMware ESXi 5.5 U2戴尔构build(“ESXi 5.5.0,2068190”)与bnx2x驱动程序版本2.710.39.v55.2 然后从vmware.com更新驱动程序,bnx2x版本2.710.70.v50.7 然后,ESXi 6.0,戴尔build立(“ESXi 6.0.0 2494585”),它具有bnx2x版本2.712 … 然后使用戴尔网站的最新驱动程序Windows […]

iSCSI在交换机上使用上行链路端口

交换机上的上行链路端口通常可以作为iSCSI端口正常工作吗? 我们正在添加一个10GB的iSCSI SAN,并希望获得一个组合交换机(48x1gb和4x10gb SFP +上行链路端口),并将10GB用于iSCSI SAN,而1GB则用于1GB iSCSI SAN。 我们被告知上行链路不提供iSCSI所需的缓冲。 这是特定的交换机使用,并做一些提供所需的缓冲和一些不在上行链路端口?

10GEnetworking:还是致命的吗? 任何选项?

我正在build立家庭集群,我将有大约16个节点可以用1G端口居住,但是我想在文件服务器和中心节点上有10GE。 这都是本地的,所以不需要长度超过3-5米的电缆。 当然,我想花尽可能less的钱(不会花费更多的整个集群成本):-) 我有什么select? 传统的解决scheme是采用一些24-48端口1GE交换机,并通过4-8个聚合链路连接到文件/中心节点。 这将工作,我想,成本是非常可以接受的,但我不知道是否可以使用这么多的聚合链接。 当然,在需要的时候,很难将带宽加倍…: – D 切换几个10GE上行“端口”。 据我所知,他们都需要1000美元左右的模块,所以我需要4个10G模块和2个10GE卡…闻起来就像超过5000美元+ … 通过2个10G卡直接连接文件和中心节点,并将4个4端口1GE网卡放在文件服务器上。 我节省了2 10G模块和交换机,文件服务器将不得不做分组路由,但它仍然会有很多的CPU剩下:-) 任何其他选项? Infiniband的? MyriNet适配器工作正常吗? 我想没有更便宜的select? 嗯…废文件服务器,把它放在中央节点,并为每个节点提供专用的1GE端口…这是伤心的…

build议:为虚拟化存储configuration10GbE NAS堆栈

我会尽我所能去努力,所以它不被视为一个购物清单。 通过HP MSA2012fc入门套件(采用基于Brocade的HP Class B SAN交换机),我们已经成功运行开发/testingESXi环境一段时间,并安装了几台Dell PE2950III服务器。 这对我们来说工作得非常好,但是在开发/testing中,它提供了关于正常运行时间/性能的各种警告。 无论如何,开发/testing平台所取得的成功已经促使人们要求更多的“生产就绪”的虚拟化平台。 我们现在正在起草这些build议。 然而,现有堆栈中的一个抱怨是缺乏对其他虚拟化技术(HyperV,Xen等)的支持,因为SAN LUN被完全分配和格式化为VMFS。 这是我们被告知需要克服的问题,但是,通常情况下,没有迹象表明HyperV / Xen被采用(我们并不是特别想浪费“昂贵的”存储资源,通过分配LUN来达到这个目的将不会被使用)。 因此,我们目前的思路是放弃传统的光纤SAN,转而使用10GbE交换机(可能是高端的HP ProLiant DL380p Gen8),运行NFS和Samba / CIFS守护进程Cisco Nexus 5000/5500系列)。 理由是,ESXi负责人可以谈论NFS,而HyperV负责人可以谈论CIFS,但两者最终都指向相同的XFS / RAID1 + 0卷。 现在,我还不够绿色,认为10GbE能够让磁头和磁盘之间的I / O吞吐量真正达到10吉比特,但我不知道从期望看到的各种开销NFS和CIFS实现(以及在多个主机尝试与之通信时可能会发生的任何其他位)。 尽pipe如此,我希望至less能够接近直连磁盘的持续磁盘读/写速度,尽可能多的主机。 看到各种驱动器制造商的网站,我大致预计这是在140-160MB / s的标记(如果我走了,请让我知道)。 什么build议/准则/进一步阅读任何人都可以提供有关Linux / NFS / Samba或10GbE交换机configuration, 可能有助于实现这一点?