我build立了一个Linux服务器(现在是VirtualBox VM) 在该服务器中,我运行一个包含两件事的Docker container : 某个端口上带有Web界面的应用程序 打开VPN客户端 我可以访问该应用程序(从我的主机,因为Linux是VM guest),一切正常,直到我连接VPN。 VPN的作品 – stream量通过它,但我无法连接到我的应用程序(ERR_CONNECTION_TIMED_OUT)。 所以我的目标是: 在Docker容器中有一台服务器,所有stream量都通过VPN 能够访问我的本地networking中的服务器/容器(就像我现在在VPN没有连接时那样) 我怎样才能做到这一点? 这是我的.ovpn文件的样子 client auth-user-pass ping 5 dev tun resolv-retry infinite nobind persist-key persist-tun ns-cert-type server verb 3 route-metric 1 proto udp ping-exit 30 cipher AES-256-CBC // cetrificate here remote <remote-host-ip>
我正在使用这样的脚本: rsync -avu –delete –progress user@host:~/backup . 每一次,过了一段时间,收到这个错误: rsync: connection unexpectedly closed (10251754 bytes received so far) [receiver] rsync error: error in rsync protocol data stream (code 12) at io.c(226) [receiver=3.1.0] rsync: connection unexpectedly closed (45482 bytes received so far) [generator] rsync error: unexplained error (code 255) at io.c(226) [generator=3.1.0] # generator = Debian 5, […]
我现在有一个这样的networking。 基本上,两个XenServer通过一个以太网电缆连接到我们的托pipe服务提供商的交换机。 每个服务器当前都有一个存储连接到(iSCSI)的第二个以太网卡。 每个VM(和Xen主机)都有一个公共IP。 所有的虚拟机通过公共IP进行通信。 我想设置的是这样的情况,每个虚拟机至less有一个私人地址,只有面向公众的服务器将具有公共IP。 而且,存储将连接到交换机而不是直接连接。 由于私人networking将无法访问外部世界,我想要VPN,所以我可以连接和pipe理私人networking。 这就是说,我不太了解networking(就设置这一切而言) 所以问题是: 1)我如何虚拟networking多个虚拟机(在单独的主机)在一起(专用networking)? 2)如何在Xen中设置虚拟networking? 3)最好是获得一个支持VLaning的交换机,并将networking分割出来? 听到社区对这些事情的任何build议,我将不胜感激。 提前致谢。
是否有可能终止在Linux上的MPLS VPN连接,以及如何? 在我的一边Linux机箱有光纤以太网接口,并已插入光纤。我们没有任何其他路由器等。
我是Windows联网新手。 当人们谈论Windows平台上的TCP调优时,他们总是提到TCP窗口大小。 我想知道Windows是否使用“套接字缓冲区大小”的概念? 在Windows XP上,TCP窗口大小是固定的。 我们可以使用TCPWindowSizeregistry值来设置它。 Socket缓冲区大小如何? 我们如何在Windows上设置Socket缓冲区大小? 我们可以将它设置为与TCP窗口大小不同的值吗?
今天我在我的日志文件中看到了这条logging: dhcpd: DHCPDISCOVER from ff:ff:ff:ff:ff:ff via vlan400: network 40.60.100.10/24: no free leases dhcpd: DHCPDISCOVER from ff:ff:ff:ff:ff:ff via vlan300: network 100.100.120.0/24: no free leases 依此类推,在连接到同一个以太网卡em1的所有VLAN上。 我99%确定在这些能够发送DHCP请求的VLAN上没有设备。 另外ff:ff:ff是一个奇怪的MAC。 所以,我的问题是:是不是很糟糕? 以太网卡或交换机上的一些错误?
我有一台运行Freebsd 10.0-RELEASE的服务器。 我试图创build与三个参与者接口,ix0,ix1和lagg0桥接口。 Lagg0是由ix2和ix3构成的虚拟接口。 我的问题是,lagg0不是在启动时创build的。 我可以在启动后创build它,它会自动接pipeix2和ix3。 之后,我可以手动将其添加到bridge0。 我在/etc/rc.conf中有这个: if_lagg_load="YES" ifconfig_ix0="mtu 9000 UP" ifconfig_ix1="mtu 9000 UP" ifconfig_ix2="mtu 9000 UP" ifconfig_ix3="mtu 9000 UP" cloned_interfaces="lagg0" ifconfig_lagg0="laggproto roundrobin laggport ix2 laggport ix3 up" cloned_interfaces="bridge0" ifconfig_bridge0="addm ix0 addm ix1 addm lagg0 up" 我究竟做错了什么?
我遇到了一些我不明白的奇怪行为。 我正在Windows 2003 Server上安装软件。 这个软件需要绑定到一个特定的UDP端口和所有的TCP地址才能听取请求。 我似乎可以绑定到我select的几个端口,但不能绑定到其他端口。 特别是我不能绑定到我需要的一个端口,这是5001。其他假设自由端口,如5002,5010也失败。 我的第一个猜测是“它正在使用另一个程序”,但它不显示在netstat或TCPView(从sysinternals),所以我不知道该怎么做。 该程序获取套接字错误10048(地址已被使用)。 这些是我用来尝试find“违规”程序的示例命令: c:\>netstat -a -v -n -o -p udp Active Connections Proto Local Address Foreign Address State PID UDP 0.0.0.0:445 *:* 4 UDP 0.0.0.0:500 *:* 512 UDP 0.0.0.0:1434 *:* 1980 UDP 0.0.0.0:4500 *:* 512 UDP 0.0.0.0:5000 *:* 5920 UDP 0.0.0.0:5500 *:* 5288 UDP 127.0.0.1:123 *:* 856 UDP […]
我之前已经build立了几个基于KVM的networking,从来没有遇到这个问题,不能为我的生活认为我以前有不同的设置。 build立 基本上,我得到和完全戴尔堆栈: 2个戴尔N2024(堆叠千兆交换机) 几款适用于KVMpipe理程序的Dell R720 2个戴尔R320的网关/防火墙 所有机器运行CentOS6.5,pipe理程序,基本上标准安装几个sysctl调整。 目前,我已经有几个testing虚拟机的设置,与其主控(CentOS 6.X,基本安装,基本的木偶驱动configuration)类似的设置。 所有虚拟机是: 桥接到两个物理上分离的networking中的一个(即,每个pipe理程序具有两个以太网连接,一个用于公共/ DMZ桥接LAN,另一个是私有networking) 所有虚拟机都使用virtio进行networking,阻塞设备(基本上是运行virt-install命令的标准结果) – 例如(例如libvirt config) <interface type='bridge'> <mac address='52:54:00:11:a7:f0'/> <source bridge='dmzbr0'/> <model type='virtio'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/> </interface> 所有虚拟机都可以访问2到8个VCPU和8和64GB RAM,而他们的驱动器是主机上的LVM卷 虚拟机中的一些简单的文件副本和ddtesting产生完全可接受的结果(在这些小规模综合testing中为300MB / s – 800MB / s) 物理机之间的networking性能 现在我已经离开了巨型帧/ MTUconfiguration,服务器到服务器之间的传输将非常高兴地超过了千兆位连接(或在那里)( 100MB / s – > 118MB / s在每台机器上进行几次大文件testing) 物理机和虚拟机之间的networking性能(以及虚拟机到虚拟机) Rsync / […]
在过去的一周里,我一直在为此挠头,似乎无法find任何解决办法。 所以,这是我的问题…我有一台瞻博networkingex4500 10g交换机通过sfp + twinax电缆连接到我的服务器。 第一台服务器(filer):戴尔R620 RAM : 96GB N/W card : Ethernet controller: QLogic Corp. cLOM8214 1/10GbE Controller (rev 58) (2 ports) on bond0 which makes this 20Gbps OS : centos 6.7 x86_64 Storage : 24 disks connected via perc 810 on RAID 5 第二台服务器(计算机):戴尔R810 RAM : 256GB N/W card : Ethernet controller: QLogic […]