我们有一个应用程序将文件从Windows机器传输到Linux机器。 每个文件大约1G,总共有7个文件。 文件被压缩。 由于我们不清楚的原因,从Windows机器到Linux机器的SFTP挂起,使用ls -ltr我们可以看到目标Linux机器上的文件大小没有增加。 快速的谷歌search似乎表明,改变MTU可能会有所帮助。 在Linux机器上,默认的MTU是1500 。 ip ad | grep mtu | grep eth0 2: eth0 : <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 我们如何确定使用的最佳MTU值,以避免挂起的SFTP连接?
我在centos7上使用pptpd作为PPTP VPN服务器 如何更改服务器端的MTU大小,导致某些用户无法连接到服务器 谢谢
我在同一个networking上有两个窗口服务器,彼此通信。 提出MTU设置的最好方法是什么?
我对Debian lenny上的openVPNconfiguration的奇怪行为有疑问。 我有2个服务器configuration(一个基于tcp服务器和基于原始udp的基础)。 ISP的带宽是7Mbit / 7Mbit。 当我使用proto tcp-server时,我的下载服务器速率在6.4 Mbit / s左右 ,但是上传速率大约是3Mbit / s。 当我使用proto udp时 ,我的下载服务器速率约为3Mbit / s , 上传速度约为6.4Mbit / s 。 我尝试在服务器和客户端configuration上处理MTU,MSSFIX和密码开/关以同步速率,但没有解决scheme。 这里是基于TCP的SERVERconfiguration: mode server tls-server port 1194 proto tcp-server dev tap0 ifconfig 11.10.15.1 255.255.255.0 ifconfig-pool 11.10.15.2 11.10.15.20 255.255.255.0 push "route 192.168.1.0 255.255.255.0" push "dhcp-option DNS 192.168.1.200" push "route-gateway 11.10.15.1" push "dhcp-option […]
我希望你们中的一个能够帮助我澄清一些在这个问题上的困惑。 我们有两台新的催化剂3750交换机来支持我们的VM主机和SANarrays。 SANarrays使用MTU为9000的巨型帧。 在交换机configuration中,我们指定了9000的全球巨型MTU。这是一个千兆交换机,所以据我所知,千兆端口将接受入口上的帧,但是如果该端口没有configuration为转发巨帧, 。 我们没有在端口基础上configurationMTU,而是在全局configuration“system mtu jumbo”命令。 我假设这些千兆端口利用这个命令,并能够发送/接收巨型帧? 此外,我们有VMhosts将驻留在不同的networking上,因为他们身在其他地方。 如果需要,帧将被分割为3层,考虑到碎片,是否值得为主机configuration巨型帧? 如果主机设置为1500和MT 9000,那么configuration巨型帧是否值得?
我想设置几个端口来处理巨型帧。 这将仅适用于连接到ESXi主机的备份nas。 我确实创build了vlan 103,我把mtu的大小改成了9000。 问题是当我想通过vmkping检查巨型帧的占用情况。 我无法在该vlan中ping任何iSCSI启动器或其他主机。 我发现我可以通过system mtu命令更改全局MTU的大小。 问题是我想改变几个端口的MTU大小。 可能吗 ?
这是我的Networks类中的一个额外的问题:我必须findpathMTU <1500字节的目的地。 例如使用该命令 traceroute -F www.uwaterloo.ca 1500工作,和traceroute -F www.uwaterloo.ca 1501没有。 所以我需要find一个在1500以下失败的目的地(也不可能是一个私人networking,这将是作弊)。 我怀疑这是一个伎俩,因为几乎所有以太网IP实现使用以太网V2帧格式,它支持1500 MTU。 有任何想法吗?
这个办公室有一个由Cisco Catalyst和Juniper EX L3交换机组成的networking。 思科路由器和Juniper L3交换机之间共享一个OSPF区域。 瞻博networking上的主机正在运行FTP服务器,并且一直处于丢包状态,导致额外的开销重新发送丢失的数据包。 不确定是什么问题。 我认为交换机之间的MTU差异可能导致帧丢失。 但是我听说MTU的尺寸差异很小,可以忽略不计,但这是否实用? 有没有人绕过调整跨设备交换机的MTU大小? 或者我只是想象这个问题? 从思科到Juniper的输出之一: 980 bytes from 192.168.21.100: icmp_seq=0 ttl=255 time=11.49 ms 980 bytes from 192.168.21.100: icmp_seq=1 ttl=255 time=3.765 ms 两边的MTU都是1500。 谢谢。
我有一个在Windows Server 2008 R2上运行的networking应用程序,它必须在很短的时间间隔内发送小包,每个微秒都很重要。 我的问题是,窗口积累的数据包,并发送他们在一个大的TCP数据包,但我希望每个数据包分开发送。 我禁用中断适度的nic。 我也将接口的MTU大小设置为63(这是我的数据包的最小尺寸)。 我用微软的Netmon检查stream量,大部分时间这个设置似乎被忽略,Windows在发送数据包之前一直在积累数据包。 我究竟做错了什么? 数据包一到达接口,是否有其他方式强制windows发送小包? 据我所知,Windows正在使用Nagle来合并数据,但我无法使用registry来禁用它。 我无法改变平台。
有没有办法强制IP数据包碎片进入tun0之前,然后强制重装在tun设备的另一端? 我有一些我无法控制的IPSecstream量,它需要1500 MTU,并且只能在tun设备上丢弃。 我想可能会将stream量封装到TCPstream中,然后将stream重新组装成数据包 – 但是由于各种原因绝不是如何工作的。 所以我想知道是否有办法强制在Linux操作系统级别的至less一些匹配的数据包碎片和重组?