所以这真的让我感到困惑
显然,因为1Gbit可以同时在两个方向上传输数据,所以应该可以在单个NIC上获得2Gbit的数据传输(1Gbitstream量发送和1Gbit接收)。 人们声称,因为1Gbit是全双工的(几乎总是),它总共是2Gbit。 我的直觉和电气背景告诉我,这里有一些不对的4双绞线250Mbit容量每个给1Gbit。 除非真的有可能同时向两个方向传输数据。
我用iperf做了一个testing。 Ubuntu服务器12.04 < – > MacBook Pro。 两者都有不错的CPU速度。 单独testing连接速度,在Mac上我可以看到112MB / s,无论哪个方向的数据。 在Ubuntu与vnstat和ifstat我得到了970Mbit的速度。 现在,在两台机器上同时启动服务器模式下的iperf并使用2个iperf客户端发送数据显示,例如,我在Ubuntu box上以600Mbit发送数据,并接收350Mbit数据。 这相当于1Gbit的链接。
所以对我来说没有神奇的2Gbit。 有人可以证实,或者说为什么我错了吗?
另一件令我困惑的事情是,例如24端口交换机,例如:吞吐量»up»:»50.6Mpps交换»容量:»68Gbps交换机»fabric»速度:»88Gbps
这将build议可以处理每个端口2GBit。
UPDATE
我用iperf -s iperf -c 10.0.20.91 -d -t60再次testing
其中窗口设置为212KB。 在上次testing中,我得到了
rx:961.41 Mbit / s 97603 p / s tx:953.53 Mbit / s 84725 p / s
在服务器网卡上,所以每路都是1GBit。
双工在千兆位以太网中有点用词不当,因为在10Mb或100Mb以太网中没有单独的发送和接收通道。 在较低速度下,2线用于发送,2线用于接收。 其他4根导线根本不用(数据无论如何)。
在千兆以太网中,全部4对用于发送和接收。 它使用5个网格编码中的2个:为了简单起见,我们将说每一端使用5个可能“电压”中的2个,一个用于“1”,另一个用于“0”。 它测量线路上的“电压”,减去近端正在传输的“电压”,从而知道远端正在发送什么。
这个工作的实际细节是比较复杂的,但最终效果是一样的。 无论千兆以太网在理想情况下都能传输2Gbps的聚合数据。 “真实世界”testing通常会变慢。 此外,以太网帧消耗约10%的开销,TCP和IP再下降约10%; 所以基于TCP的testing通常会在80%的中间范围内。
由于交换容量大于48Gb(24端口x 2Gb),交换机必须有24个以上的端口。 交换matrix是内部交换容量,它们通常将公布的数量限制在外部交换容量。
没有什么可以阻挡的 – 而不是testing,阅读就足够了。
1Gbit是定义全双工,即同时发送和接收。