千兆networking的预期吞吐量

我一直在用iperf做一些testing来测量2台服务器之间的networking吞吐量(通过交叉网线连接),我只能看到180到200 Mbps。 我尝试了不同的电缆,他们都是CAT6。 正如你可能知道的,iperfdynamic生成数据包,所以磁盘I / O不涉及这里…

这两台服务器运行普通的Windows 2003,为网卡提供正确和最新的networking驱动程序。 我知道有一些涉及协议的开销,但我不认为这需要超过20%的带宽

瞄准80%的利用率是否现实? 也就是说,要在1Gb链路上达到800Mbps左右? 你真的在Windows上看到这个吗?

谢谢,JFA

在负载很重的iSCSI HBA上,我看到持续950Mbps的大型Oracle数据库,但对于常规NIC上的正常I / O,很less超过500/600 Mbps。 300 Mbps是我networking上一天比较正常的最高速度。 因人而异。

打开巨型帧。

它并不回答你的问题,但这是tomshardware.com的一篇很好的文章,详细介绍了使用GigE进入80%以上的利用率区域的难度。

我在硬件上获得了这样的性能,但这不是正常的stream量。 当我在服务器之间复制文件时,它会得到持续的传输,但是,我没有运行服务器2003. 2008有一个更好的networking堆栈请参阅引用whitepapaer有关如何实现的详细信息。 启用巨型帧也不会伤害。

尝试在运行testing时检查是否使用netstat获取任何以太网错误:

netstat -e 

你会得到这样的输出:

 Interface Statistics Received Sent Bytes 1297481476 1525340409 Unicast packets 615329630 429473493 Non-unicast packets 809612 72735 Discards 0 0 Errors 0 0 Unknown protocols 44579 

如果你得到很多错误 ,你应该尝试跟踪这些错误

在这里可能会有些过时,但是尝试将两张牌都设置为“全双工”,然后查看是否可以提高速度或减less错误。

你也可以在运行你的testing的时候试试netstat -e -S来得到每个协议的统计信息(和错误)。 这可能是您的testing实用程序正在生成Windows注册为有问题的数据包。

重要的是要注意,这些速率始终是基于连续传输最大的数据包的。 在原始的以太网上,声称是10Mbps,但是只有每个数据包长度超过1500个字节才是真实的。