我在2.0.9上有一个syslog-ng实例,这是旧的,但是…这是企业IT和升级版本是…有趣…运行在Solaris 10.我有这个奇怪的问题,有些客户端不要在TCP上保持连接到服务器。 当一个客户端正在工作,我可以在客户端启动syslog-ng,它连接和发送数据,并保持连接… 12:20:13.200547 IP (tos 0x0, ttl 64, id 13064, offset 0, flags [DF], proto: TCP (6), length: 60) 10.37.128.185.35765 > 10.37.141.31.shell: S, cksum 0xade4 (correct), 1572869826:1572869826(0) win 5840 <mss 1460,sackOK,timestamp 958735818 0,nop,wscale 7> 12:20:13.202279 IP (tos 0x0, ttl 63, id 27707, offset 0, flags [DF], proto: TCP (6), length: 64) 10.37.141.31.shell > 10.37.128.185.35765: […]
我是套接字编程的新手,我读过SYN数据包可以通过一个原始套接字创build。但是windows api不允许创build一个原始套接字。我知道ICMP数据包没有任何端口绑定到它,作为TCP SYN有一个端口绑定到它,他们都是原始套接字。是TCP SYN ICMP控制消息吗?
我的服务器今天停止在我的网站上收到请求。 它工作了一段时间,但然后服务器停止工作,并引发了几个错误: 500 Internal Server Error Warning: mysql_connect(): Can't create TCP/IP socket (105) in […] on line 7 Couldn't connect to database. Please try again. mysql_connect(): Host […] is blocked because of many connection errors; unblock with 'mysqladmin flush-hosts' mod_fcgid: can't apply process slot for /var/www/cgi-bin/cgi_wrapper/cgi_wrapper (这是来自错误日志) 任何想法可能会导致它? 操作系统是Ubuntu
VMWare Server 2.0.2主机操作系统是Windows Server 2008 R2标准客户操作系统是Windows XP 我正在使用VMWare VMNet8,NATnetworking。 VM guest虚拟机无法看到VM主机周围的networking。 VM主机中的数据包嗅探显示: SYN被发送到Internet主机 从它们收到SYN / ACK 没有ACK被发送回主机 最终目标互联网主机超时不完整的连接并发出RST。 然而,VM guest虚拟机中的数据包嗅探仅显示: SYN被发送到Internet主机 没有收到SYN / ACK 也没有收到RSTs 所以我得到连接超时。 VMNet8(和VMNet1)以完全标准的方式进行configuration。 在其他地方的build议之后,我用VM Player中的版本replace了VM Host中的vmnat.exe 。 不用找了。 我有另一台运行早期版本的VMWare Server 1.0.6的服务器,其中完全相同的设置完美工作。 configuration与NAT子网号码相同。 在我进行数据包嗅探之前,我把这个问题放到了主机上一个未被发现的configuration差异或未被发现的防火墙设置中,但是嗅探清楚地表明这是一个较低级别的问题,可能仍然在VMWare的NAT中。 这是一个已知的问题吗? 有一个解决方法? 还是我在错误的轨道上,应该在其他地方看? 注意:由于这个问题以外的原因,我需要使用NAT,而不是桥接。
如果我知道最大的数据包大小是1500字节说的以太网帧v2然后例如我想通过互联网传输1 KB约1024字节。 数据包在发送时会被拆分成多个数据包,还是仅仅是一个数据包? 如果是这样的话,那么为什么在MTU大小的时候会被拆分呢?
我刚安装了6.3新鲜的centos 6.3,注意到以下几点: [root @ localhost user1]#cat / etc / redhat-release CentOS release 6.3(Final) [root @ localhost user1]# [root @ localhost user1]#cat / proc / sys / net / core / rmem_max 131071 [root @ localhost user1]#cat / proc / sys / net / core / rmem_default 229376 [root @ localhost user1]#cat / proc / sys […]
我们之前在我们的环境中遇到了问题,似乎我们正在达到FreeBSD的最大连接限制。 我们采取行动http://nginx.org/en/docs/freebsd_tuning.html并提高了我们的连接限制为500:kern.ipc.somaxconn:500 我们仍然有问题,我们希望看到从客户端到这个特定服务器的额外连接,我们不是,他们错过了。 我们不知道这是一个应用程序问题还是一个networking问题。 但是我想知道现在是否还有其他限制,可能是build立了最大连接数? 这里有一些图表显示了我们的连接行为,看起来奇怪的是它有300个连接的限制: 我们的服务器上丢失的命令的大概数量^ 编辑: 有关应用程序的更多详细信息:应用程序是一个tclsh(tcl shell),它使用套接字应用程序侦听特定的tcp端口来接收连接。 也许这是一些基于tcl的限制或套接字应用限制? 故障排除详细信息:当我运行nmap基本上“平”一遍又一遍所需的端口 for i in {1..600}; do nmap -p 2069 serverIP; done 我似乎得到了以下与netstat: netstat -Lan | grep 2069 tcp4 193/0/128 *.2069 tcp4 193/0/128 *.2069 tcp4 193/0/128 *.2069 tcp4 193/0/128 *.2069 这似乎意味着我实际上超出了kern.ipc.somaxconn的默认值。 但是我们已经把这个值设定得比默认值高得多。 即使我监视build立的连接使用: netstat -an | grep 2069 | wc -l 在2069年我只能得到192个连接的总数。意思是这个端口不能接受更多的连接。
我想测量创buildTCP连接的开销。 我知道许多工具,如hping和netperf ,但他们似乎netperf测量延迟。 我想知道三次握手需要多久,并分配任何缓冲区等,然后closures它。 所以我想打开一个真正的,合法的TCP连接,然后closures它。 有没有什么工具可以帮助我衡量性能?
在Ubuntu 14.04上,应用程序以每秒1到1次的速度与客户端进行通信。 但是,该服务必须定期重新启动,这会导致所有连接丢失/超时。 服务重启只需要大约10-15秒。 是否有可能调整系统,使得这些连接在服务重启时不超时/丢弃? $ ulimit -n 1048576 $ cat /proc/sys/net/ipv4/tcp_fin_timeout 60 $ cat /proc/sys/net/ipv4/tcp_tw_recycle 0 $ cat /proc/sys/net/ipv4/tcp_tw_reuse 0
试图帮助某些人在几分钟后TCP连接被神秘地丢弃的情况下没有明显的原因(即使非空闲连接也会发生这种情况)。 运行Linux的客户端和服务器都在这种情况之外。 有充分理由怀疑之间的一些故障路由器正在做(有一些NAT涉及)。 如何find哪个路由器正在断开连接? 像tcptraceroute任何工具,但会保持TCP连接打开,并继续探测,直到它被丢弃? (在这一点上,我们知道谁是罪魁祸首)