我已经configuration了两个Linux机器,以便他们在需要通信时自动使用传输级别的IPSec连接。 configuration基于带有X509authentication的Racoon,并且bundle_complex选项设置为on ,以及两个框之间需要ESP和AH的策略。 虽然configuration工作,一般来说,前几个数据包总是丢失,例如: $ ping -c 3 ABCD PING ABCD (ABCD) 56(84) bytes of data. ping: sendmsg: Operation not permitted ping: sendmsg: Operation not permitted 64 bytes from ABCD: icmp_req=3 ttl=64 time=0.497 ms 有什么办法可以防止这种情况发生,例如通过“延迟”数据包直到IPSec传输协商完毕?
我有一个带宽为100 Mbps的debian服务器。 我的客户大多使用3Gnetworking连接,平均持续时间为3千万。 它们中的很多很less有数据包丢失,但是每次数据包丢失时,tcp链路会在所有事情恢复正常之前停顿30秒或更长时间。 服务器使用大约5%的CPU,内存和带宽。 我已经列出了debian的选项列表和调整tcp堆栈: http : //www.linuxinsight.com/proc_sys_net_ipv4.html 我想知道哪个参数将允许服务器或客户端丢失数据包丢失较less的时间。 任何想法 ?
我们的2008服务器在2周内开始非常缓慢地工作。 我们的网站(iis 7.5)的加载非常缓慢,有时甚至被冻结。 我们开始使用wireshark进行testing,发现数据包在传输过程中丢失。 客户端多次请求相同的数据包,请查看下面的内容。 (客户端): 11 3.492500客户端服务器TCP 54 61220> http [ACK] Seq = 316 Ack = 5521 Win = 66240 Len = 0 (服务器): 12 3.495204服务器客户端TCP 1434 [TCP上一个段丢失] PDU] (客户端): 13 3.495225客户端服务器TCP 66 [TCP双重ACK 11#1] 61220> http [ACK] Seq = 316 Ack = 5521 Win = 66240 Len = 0 SLE = 6901 SRE […]
我正在testing我们的一个stream媒体应用程序的韧性来处理数据包丢失。 在Linux机器上,我通常使用iptables来像这样随机丢弃数据包: iptables -A INPUT -m statistic –mode random –probability 0.1 -j DROP 我需要在当前运行OSX的服务器上进行testing。 任何想法如何随机丢包在OSX服务器或Mac电脑上? /安迪
我有一台运行CentOS 7的Linux服务器,而且我一直面临着RX丢包数量不断增加的问题。 我相信这可能是由于networking中的电缆/连接器故障引起的。 但是,我没有办法检查每一个连接find问题。 有什么方法可以看到丢弃的数据包来自哪个IP?
我们有一个局域网与思科交换机,冗余布线和生成树。 如果我理解正确,当我拔出冗余电缆(当前由生成树“使用”)时,需要几秒钟,直到生成树收敛。 我怎样才能防止这个数据包丢失(假设我事先知道电缆将被拉出)? 也就是说,如何让生成树“主动”适应呢? 我会猜想接口shutdown加上等待几秒钟就足够了,但是不敢尝试。 实际上,我认为接口closures会导致收敛期间中断时间相同,因为昨天当我在某些接口上做了一个被认为是无害的configuration改变时,我遭受了这样的中断。 (编辑:我刚刚通过实验确定了这一点;正如预料的那样,在接口closures之后,中断了大约20秒 – 请注意,我正在寻找一种“无损”独奏,而不仅仅是“更less的损失”)。
我正在处理教会中一个小型networking中令人讨厌的情况,这个networking是我主要的志愿者ITpipe理员,大概有20台电脑。 我们在千兆互联网的家乡查塔努加,所以我们有很多的带宽(100MB的连接)。 根据pfSense仪表板,pfSense硬件是: Intel(R) Atom(TM) CPU D525 @ 1.80GHz 4 CPUs NIC(WAN + LAN)都是千兆端口。 这东西有2GB内存。 我们有一个计算机实验室/课后辅导计划,所以我使用pfSense进行Squid和Squidguard的内容过滤。 一个半星期前,我不知道,另一个IT人员进来,重新安排了一大堆IT设备,把一些东西挂在networking壁橱里,而没有先和我说话。 那恰好是同一个周末,一场大风暴吹响了整个城镇。 从那以后,互联网一直很斑点。 互联网开始放缓,并一直放缓,直到无法使用,然后大多数(如果不是全部)的人报告说,它彻头彻尾的破碎,没有进入外部世界。 由于我不是经常在现场,所以在实际发生的时候,我很难真正解决问题。 这个解决scheme(我不是很喜欢这个解决scheme,但是它可以胜任这个工作)一直是从networking设备(Ubiquiti接入点,Cisco SG-100和ISP设备中的pfSense + 1) ,把所有的东西都插回去,一切都恢复正常。 然而,有时候我可以在现场,我注意到,当互联网出现故障(10.0.0.1)时,我无法ping通网关(pfSense),而我能够ping其他内部设备,例如位于10.0.0.2的打印机。 回顾pfSense仪表板,我从来没有看到stream量变得饱和。 我们有一个100MB的连接,所以有足够的带宽。 现场没有服务器和高带宽应用程序。 对我来说,症状听起来就像生成树问题(我们没有任何智能交换机,尽pipe我在networking的核心部署了一台Cisco SG-100。 我检查了我们所有的交换机(我们在整个build筑物中只有3个 – 没有8个以上的端口),并且跟踪了所有的电缆,确保没有物理环路,并确保交换机没有互相连接多次。 于是我将pfSense硬件从2.1.3升级到2.1.5,并升级了Ubiquiti UniFi无线接入点的全部4个固件。 我也没有连续运行无线控制器,所以我将软件安装到几乎总是开着的员工个人计算机上,以便控制器保持存在。 (如果你对Ubiquiti UniFi有所了解,你不必让控制器持续运行,但我认为它不会受到伤害) 当互联网速度很慢的时候,我在今天早些时候从自己的PC(Ubuntu)上运行了很多的ping命令,但是我看到了很多数据包丢失。 我注意到,因为我会ping一个特定的外部IP地址,一开始就会有很多数据包丢失,但是我让ping运行的时间越长,ping响应就越快(并且更加一致/可靠) 。 回顾防火墙上的代理filterconfiguration,我注意到在代理服务器部分的高速cachingpipe理中,内存高速caching大小是32MB,而RAM中的最大对象大小被设置为64MB。 意识到这可能会导致一个问题,我增加了高达256MB的内存caching大小,并完全closures了硬盘caching。 我希望这会有所帮助,但是我们会在接下来的24-48小时内收看networking。 (更新:这似乎没有帮助,离开5分钟后,我接到一个电话,说我的networking出现故障,于是我回来,用临时的Cisco Linksys路由器换掉了pfSense设备,我们将看到发生)。 是否有任何其他的build议或事情,我应该研究解决这个正在进行的问题? 我以为我的确有一个想法,那就是那个没有先问我的networking设备的人就可能捏住一根电缆。 我把pfSense设备上的电缆换成了局域网,但是这并没有帮助。 另一个想法是,由于风暴,可能会出现某种程度的波动,但networking中的一切都在APC电涌保护器后面。 无论如何,那是什么时候开始的问题。 我有WireShark,但我不完全确定在数据包捕获中要查找什么。 也许一些关于如何处理数据包捕获的指针也会有所帮助。
我必须实现一个导致文件传输的伪TCP握手。 我没有问题做文件传输:简单的发送确认。 我不能包揽头脑的是如何在三个步骤中的一个步骤中进行三次握手。 例如:我的客户端发送一个SYN数据包。 如果超时(丢包或只是慢)等待SYN-ACK,则重新发送。 服务器发送SYN-ACK。 如果超时等待ACK,则重新发送SYN-ACK。 现在客户如何收到他的ACK?
rmem_max Linux设置定义了接收UDP数据包的缓冲区的大小。 当stream量变得太忙时,丢包开始发生。 我做了一个图表,显示了数据包丢失如何随传入带宽而增加。 (我使用IPerf在两个VM实例之间生成UDP通信) 。 不同的颜色是不同的rmem_max值: 如您所见,将rmem_max设置为26214400 (深蓝色)会导致数据包丢失的时间早于较小的值。 Linux的默认值是131071 (深绿色)看起来合理。 在这些情况下,为什么JBoss文档build议将rmem_max设置为26214400 ? 是否因为UDPstream量预计会高于350兆字节/秒? 无论如何,我认为任何事情都不会发生超过1%的数据包丢失。 我错过了什么? 详细信息:我在两个节点上都使用了sysctl -w net.core.rmem_max=131071 (作为例子),并用作服务器iperf -s -u -P 0 -i 1 -p 5001 -f M ,另一个作为客户端iperf -c 172.29.157.3 -u -P 1 -i 1 -p 5001 -f M -b 300M -t 5 -d -L 5001 -T 1 。
我一直在从我的一台服务器上运行MTR,注意到一些对我来说很奇怪的事情。 因为我不是真的进了这个,我会给你三个输出: 这是从服务器到我家的位置: My traceroute [v0.75] prag341.server4you.de (0.0.0.0) Sat Apr 16 12:31:36 2011 Keys: Help Display mode Restart statistics Order of fields quit Packets Pings Host Loss% Snt Last Avg Best Wrst StDev 1. v9-609a.s4y14.fra.routeserver.net 0.0% 143 6.6 2.9 0.7 15.6 2.4 2. 217.118.16.161 0.0% 143 0.7 5.7 0.4 67.3 13.2 3. 217.118.16.25 0.0% 143 […]