我最近安装了OpenVPN。 我遇到很高的ping延迟问题。 首先,我通过TCP,现在的UDP运行它,但问题不会改变。 OpenVPN服务器:2.4.2 OpenVPN客户端:2.4.0 OpenVPN GUI:11.4.0.0 服务器操作系统:Windows Server 2016 Standard 客户端操作系统:Windows 10 Enterprise Ping VPN客户端(从VPN服务器通过VPN隧道): Reply from 10.8.0.2: bytes=32 time=19ms TTL=128 Reply from 10.8.0.2: bytes=32 time=18ms TTL=128 Reply from 10.8.0.2: bytes=32 time=18ms TTL=128 Reply from 10.8.0.2: bytes=32 time=18ms TTL=128 Reply from 10.8.0.2: bytes=32 time=18ms TTL=128 Reply from 10.8.0.2: bytes=32 time=19ms TTL=128 Reply from 10.8.0.2: […]
我不确定在freepbx服务器上使用iptables的最好方法是阻止来自随机外部主机的所有传入SIP连接,并且只允许SIP中继提供程序的公共IP。 服务器在路由器后面,因为端口5060-udp被转发到VoIP服务器。 我热衷于帮助进一步保护服务器的build议。 非常感谢
由于不必要的原因,我必须通过互联网运行TFTP服务器。 根据RFC 1350 ,在连接期间使用的每个端点都有一个随机端口。 但是,对于UDP NAT固定,显然只允许从同一个端口响应的请求消息。 这是一个stream量的例子: 客户端:192.168.1.2(NAT设备/网关.1) 客户的公共IP:50.1.1.1 服务器:12.50.100.1:69(公共服务器,不在NAT后面) 客户端: 192.168.1.2:45613 -> 12.50.100.1:69 服务器端: 50.1.1.1:45613 -> 12.50.100.1:69 12.50.100.1:29412 -> 50.1.1.1:45613 在服务器端select的TID是29412,但是请求端口是69.我需要的是确保这个stream量是用源端口69发送的。有没有什么办法可以在不改变源代码TFTP服务器? 我见过一些令人印象深刻的iptables魔术,所以我在这里问。
我正在使用linux(raspian / debian 8.0)在RTPstream媒体上遇到一个奇怪的问题。 当使用下面的命令… gst-launch-1.0 -v filesrc location = / root / test.wav! wavparse! audioconvert! audioresample! 阿拉文克! rtppcmapay! udpsink host = << >> port = 1234 …与客户端IP地址,例如172.24.1.1一切按预期工作,没有丢包/延迟。 当使用广播地址172.24.1.255或多播地址224.0.0.251时,事情会因包丢失/延迟或包序列而变差。 从哪里开始? 难道是应用了不同的路由策略等? 谢谢!
我目前正在运行两个虚拟化服务器(Xenserver和Proxmox)规格: Proxmox:2个E5-2690(32个核心)128GB内存(DDR3)2个512GB固态硬盘2个10Gbps网卡,使用英特尔x520(一个用于专用networking) Xenserver:4个E7-4870(80个核心)256GB内存(DDR3)4个512GB固态硬盘3个10Gbps网卡,使用intel x520的两个端口供公众使用,一个供私人使用 每个服务器上都有一个应用程序,它可以传输大约64kpps的数据,并且可以接收100kpps的UDPstream量,总共可以下载300Mbps左右的数据,上传到互联网的速度可以达到170Mbps。 在运行应用程序之前(在任一台服务器上的虚拟机上),这些服务器到speedtest.net的速度大约为运行在pipe理程序上的5Gbps / 3Gbps。 在虚拟机上运行应用程序并生成大约300Mbps / 180Mbps的上述stream量后,虚拟机pipe理程序的速度会爬到Proxmox主机上的2.5Gbps / 700Mbps,Xenserver主机上的速度大约为200 / 200Mbps。 但是,连接到Juniper EX4550的交换机似乎没有受到300Mbpsstream量的影响,并且通过iperf的交换机的总吞吐量在应用运行时仅下降了大约400Mbps 我曾尝试在Xenserver主机上的两个公用NIC之间分割stream量,但获得了上述stream量的额外networking吞吐量的0%。 这使我相信这个问题是Linuxnetworking堆栈的一个瓶颈。 但我不确定从哪里开始进行故障排除。 谢谢 PS:链接饱和的问题也出现在专用服务器上(运行应用程序时报告2Gbps速度的服务器在运行应用程序时会导致速度下降到100 / 50Mbps),从而导致应用程序出现故障
我已经使用NGINX作为我的主域的反向代理了一年多了。 该代理驻留在AWS EC2实例中,并将stream量发送到我的家庭IP地址,并伪装所有丑陋的端口组合。 尽pipe我从来没有设法让我的OpenVPN服务器与NGINX一起工作。 当我尝试通过我的域名连接到BEHIND NGINX的服务器时,它超时并说: TCP: connect to [AF_INET]777:777:777:777:8050 failed, will try again in 5 seconds: Connection timed out 其中777.777.777.777是我的反向代理的IP地址,而不是我的家庭IP地址,它是888.888.888.888 。 在我的configuration文件中,哪个NGINX应该将代理数据stream式传输到这个块所定义的: stream { upstream tcp_backend { server 777.777.777.777:8050; } upstream udp_backend { server 777.777.777.777:8051; } server { proxy_connect_timeout 300s; proxy_timeout 300s; listen 8050; proxy_pass tcp_backend; } server { proxy_connect_timeout 300s; proxy_timeout 300s; listen […]
我试图在Docker Swarm集群上运行jumanjiman / tftp-hpa 。 我已经通过启动服务 docker service create –name rsyslog –mode global –mount type=volume,source=rsyslog,destination=/var/run/rsyslog/dev jumanjiman/rsyslog docker service create –name pxe –replicas=1 –publish 69:69/udp \ –mount type=volume,source=rsyslog,destination=/var/run/rsyslog/dev \ –mount type=bind,source=foo,destination=bar \ jumanjiman/tftp-hpa 这成功地启动了服务 ~# docker service ls ID NAME MODE REPLICAS IMAGE PORTS 775f4z5hyc0k rsyslog global 1/1 jumanjiman/rsyslog:latest q51fqjwe6rji pxe replicated 1/1 jumanjiman/tftp-hpa:latest *:69->69/udp 当我在容器内时,tftp在本地工作 […]
我遇到了两个服务器之间UDPstream量丢失的问题。 主机硬件是: Supermicro X11SSL-F v1.01 Intel(R)Xeon(R)CPU E3-1270 v5 @ 3.60GHz 32GiB DIMM DDR4同步2400 MHz Broadcom公司BCM57840 NetXtreme II万兆以太网(11版) Solarflare通讯SFC9120(rev 01) 主机B的硬件是: 英特尔S2600WTTR G92187-371 Intel(R)Xeon(R)CPU E5-2690 v4 @ 2.60GHz 256GiB DIMM DDR4同步2400 MHz 英特尔公司以太网控制器万兆X540-AT2(rev 01) Solarflare通讯SFC9120(rev 01) 两台主机都运行Debian Linux。 bnx2x驱动程序取自Debian回购。 SolarFlare司机从官方网站采取。 我正在使用iperf3进行testing。 当我用100m / 1g / 10g的速度运行TCP时,一切正常,没有检测到丢失。 所以我相信电缆和接口是可以的。 但是当我使用UDP数据包进行testing时,这一切都出错了。 到目前为止,我试图优化testingstream量参数:使用预热,将数据包大小设置为1458,接收缓冲区为10Mb。 我也在networkingirq亲和力。 iperf3使用所有可用的核心,而运行testing时,我没有看到只有一个CPU超载。 所以iperf3正在以这种方式启动:iperf3 -c DEST_IP_HERE -V -i […]
我已经在路由模式下设置了OpenVPN服务器。 当我尝试通过SSH连接到我的VPN服务器时,它挂在: ssh -i .ssh/mpolitaev_mba [email protected] -vvv OpenSSH_7.4p1, LibreSSL 2.5.0 debug1: Reading configuration data /etc/ssh/ssh_config debug1: /etc/ssh/ssh_config line 20: Applying options for * debug1: /etc/ssh/ssh_config line 97: Deprecated option "useroaming" debug1: /etc/ssh/ssh_config line 105: Applying options for * debug2: resolving "192.168.200.1" port 22 debug2: ssh_connect_direct: needpriv 0 debug1: Connecting to 192.168.200.1 [192.168.200.1] port 22. debug1: […]
我有一些IPFIX格式的双向stream。 根据规格表, IPFIX是双向的,因为它有“from_bytes”和“to_bytes”。 我使用这种包格式运行nfcapd : ./nfcapd -E -p <listening port> -l /home/output_directory/ 我有-E标志有-E地看到输出:它输出一堆这样的logging: Flow Record: Flags = 0x00 FLOW, Unsampled export sysid = 36 size = 56 first = 1503985032 [time stamp] last = 1503985033 [time stamp] msec_first = 682 msec_last = 736 src addr = 10.107.127.34 dst addr = 10.0.3.162 src port = 21015 […]