在networking接口上,随着时间的推移,数据的速度是不同的,特别是每秒的比特数。 然而,在超高速运算的世界里 – 第二种是相当长的一段时间。
例如,给定一个线性衰减。 每秒1 GBit的接口每半秒可以处理500MBit,每秒处理250Mbit等等。
我想在某些时间单位,这不再是线性的。 也许这是由以太网频率,系统时钟速度,中断计时器等设置。我相信这取决于系统 – 但有没有人有更多的信息或白皮书呢?
我很好奇的一个主要原因是理解接口上的输出下降。 即使每秒的速度远低于接口可以处理的速度 – 也许有尖峰导致只有很小的毫秒数下降。 也许各种合并会隐藏这种效果 – 或者可能在接收界面上增加它? 排队在这里有所作为?
例:
所以,如果这是线性下降到MS,我们将有1Mbit / MS,如果Wireshark没有扭曲我所看到的,当我有超过1Mbit的峰值时,我应该看到下降?
速度并不像很多人想象的那么重要。 我有一个有很多下降(进出)的服务器 – 但是每个工具只显示低带宽利用率(在千兆链路上,平均低于2%)。
尽pipe如此,统计数据显示服务器上的tx和rx下降了。 对IP数据包的分析表明,服务器被数千个包含less量字节的小型IP会话所淹没。
所以真正的问题 – 你也可能会看到,你的硬件和/或IP数据包堆栈每秒不能提供足够的数据包。
你在说什么操作系统? 如果是Linux,我可以给你更多的细节。
补充:2011-06-26(我们正在谈论Cisco 2960-S交换机/路由器)
奇怪的是,思科不知道自己的数据表。 : – /
请参阅“转发速率:64字节包Cisco Catalyst 2960-S”部分。 从这里我可以说2960-S是2960的大哥,应该做很多PPS。 你在哪里遇到这个问题? 这是一个干线/上行链路?
既然你谈到第2层忘了IP-我们在以太网数据包级别。 但问题可能是一样的。
你在哪里/如何运行wireshark?
由于原始线速度是1 Mbps / mS,正如你所说,显示尖峰略微超过的graphics必须稍微扭曲。 丢失的数据包不在那里,所以不是图的一部分。