Articles of 以太网

中断合并高带宽数据包捕获?

我有一个应用程序,从一个以太网卡捕获数据包。 偶尔会看到数据包丢失(我们怀疑是由于网卡或内核的缓冲区溢出)。 我试图弄清楚打开中断合并是否会帮助或恶化这种情况。 一方面,由于处理的中断应该较less,因此CPU的工作量应该较less,另一方面,如果IRQ不是经常处理的话,缓冲区溢出的可能性就越大。 这是否意味着我应该打开它并增加rmem_max设置的大小? 已更新为包含OS / HW详细信息: 戴尔PowerEdge 1950双核四核至强X5460 @ 3.16GHz博通NetXtreme II BCM5708 Linux操作系统 proc/sys/net/core dev_weight 64 netdev_budget 300 rmem_default 110592 somaxconn 128 wmem_max 16777216 xfrm_aevent_rseqth 2 message_burst 10 netdev_max_backlog 65536 rmem_max 16777216 warnings 1 xfrm_acq_expires 30 xfrm_larval_drop 1 message_cost 5 optmem_max 20480 rps_sock_overflow_entries 0 wmem_default 110592 xfrm_aevent_etime 10

Freebsd如何检测接口上的以太网环回

我有基于愚蠢的枢纽networking。 而在这个networking中心的freebsd路由器。 今天我在'systat -vmstat'中看到: 中断8005 em1:rx 0 这是一个枢纽的循环。 有什么办法可以检测到这个,如果发生这种情况给我发电子邮件?

绑定:仅适用于下载

我想用模式4安装4个链接的绑定,但只有“下载/接收”与bondig一起工作。 为传输系统select一条链路。 使用ifconfig bond0 Link encap:Ethernet HWaddr 90:E2:BA:0F:76:B4 inet addr:ip Bcast:ip Mask:255.255.255.248 inet6 addr: fe80::92e2:baff:fe0f:76b4/64 Scope:Link UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1 RX packets:239187413 errors:0 dropped:10944 overruns:0 frame:0 TX packets:536902370 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:14688536197 (13.6 GiB) TX bytes:799521192901 (744.6 GiB) eth2 Link encap:Ethernet HWaddr 90:E2:BA:0F:76:B4 UP BROADCAST RUNNING SLAVE MULTICAST […]

带有Watchguard路由器的新EFM租用线路设置,vlan标记问题

我最近有一个2mb EFM连接安装在我工作的慈善机构。 我们没有提供路由器,因为我们已经有了可以使用的存储XTM330。 该线由Hatteras HN408-CP提供,我使用交叉电缆将其插入到Watchguard的第一个端口。 这被configuration为一个外部接口。 我的第一个问题是,我提供了一个ip地址,在不同的子网上,他们提供的网关的ip。 在WatchGuard上,我configuration了一个静态IP的外部接口,我认为这对于EFM是正确的。 当我inputIP和网关时,Watchguard出现错误:“Netowrk(sic)地址和网关位于不同的networking上。 第二个问题是,EFM提供商已经说过,所有出站stream量都应该使用vlan id进行标记,但在configurationWatchguard上的外部接口时没有这个选项。 我怎么去做这个? 任何帮助将不胜感激。

排除以太网(第2层)的故障,而不使用第3层

我正在解决局域网的问题,并确保每个主机可以在第三层互相访问。每个主机configuration为相同的子网,但有些主机不能到达其他层(例如ping说主机其他是closures)。 在检查第3层问题之前,我们要确定以太网(直到第2层)工作正常,并且每个主机都可以互相发现。 我们有每个主机的MAC地址集来连接。 仅依赖于第1-2层,确定第2层工作的build议方法是什么? 猜测 使主机界面以混杂模式运行的工具 一些使用FF:FF:FF:FF:FF:FF广播 有一个相关的第2层问题暗示了一些可能的拓扑发现协议,但它是封闭的。

为什么网卡在没有固件的情况下工作正常?

我使用Intel和Realtek以太网卡的电脑,当我把Debian安装到他们身上时,我一直忘记安装linux-firmware软件包。 我可以在系统日志中看到消息,告诉我该卡的固件无法find,但是,令人惊讶的是,我可以很好地访问networking。 为什么是这样? 我以为固件是正常操作任何设备所必需的。 我可以遇到比固件更多的问题吗? 我一直在用Broadcom以太网卡(使用tg3驱动程序)随机断开一些问题,我读了一篇关于由错误固件引起的问题的文章。

在所有Linux和Unix中丢弃数据包

我有个问题。 我有Supermicro-X11SBA-LN4F的主板。 有4个以太网端口。 在第一个端口,我连接到互联网。 在第二个端口连接到我的本地networking。 当我写ifconfig或netstat -i ,我可以在我的第二个接口(我的本地networking)上看到丢包。 这个数字是递增的 em2 Link encap:Ethernet HWaddr 0c:c4:7a:7b:91:3e inet addr:192.168.110.181 Bcast:192.168.110.255 Mask:255.255.255.0 UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:17441 errors:0 dropped:1380 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:1226317 (1.2 MB) TX bytes:0 (0.0 B) 从谷歌search后,我发现这个: https : //www.novell.com/support/kb/doc.php?id = 7007165 Beginning with kernel […]

在Linux上debugging丢弃的UDP消息

这里是我的设置:我有1个主机有一个1 Gbit以太网连接和2个有100 mbit连接的主机(通过不同的交换机连接到1Gbit主机)。 在一个testing中,我从1Gbit主机发送1000个1kb的消息到100mbit的主机(没有延迟的btwn sendto()调用)。 对于100兆主机之一,没有数据包被丢弃。 另一方面,直到100日左右没有下降,然后开始下降剩下的大部分。 非常可重复的。 当我引入1ms的延迟时,在任一主机上都没有丢弃。 我想知道为什么两个主机有不同的行为。 我应该用什么方法/工具来追踪这些? 我正在使用Linux 6.8。 而且我的rmem_max在两台主机上都设置为10MB。

用ping检测有问题的物理链路

我有一个关于检测ping的物理连接问题的问题。 如果我们有一个有问题的光纤或电缆,并在帧上产生一些CRC错误(通过交换机或路由器接口统计信息可见),则可能所有的pingtesting都会成功,因为默认的小型ICMP数据包大小,错误。 它是否正确? 此外,如果我ping 65k大小的数据包,一个ping会产生大约65000/1500(MTU)= 43帧或IP分片,那么丢包概率会更高。 通常情况下,如果一个IP分片丢失,整个IP分组将丢失。 这个假设是真的吗? 全球性的问题是,在大的ping情况下,我们能够检测到链路上的物理问题吗?

GigE以太网交换机背板带宽

在寻找具有至less6个VLAN和端口镜像的16或24端口千兆以太网交换机(将数据包复制到监控端口)时,我想出了三个候选产品(还有更多): Cisco SRW2024 , Netgear GS724T和HP ProCurve 1810G 我需要任何VLAN能够在两个端口之间进行至less一个完全GigE通信,而不受任何其他stream量的干扰。 我无法弄清楚的是:这些交换机是否能够切换总计达到6xGigE的多个全负载GigE链路? 在过去,这被称为背板容量(特别是在堆叠多个交换机以形成巨大的广播域时),但是现在有些不提供任何信息(在J9450A的情况下是HP)并且其他状态是“非阻塞,前向切换机制“,甚至”带宽:48Gbps“。 只要没有单链路容量过载,GigE交换机是否处理任何发送给它们的常识?