Articles of openvpn

允许Docker容器连接到主机隧道接口上的OpenVPN客户端

我有以下设置: 运行docker服务的CentOS主机 用户定义的docker桥networking 2个连接到该用户定义桥networking的Docker容器 安装OpenVPN(当前在主机上运行,​​也可以在Docker容器中运行) 一些客户端连接到OpenVPN 如何允许docker bridgenetworking上的docker容器与tun0networking上的openvpn客户端进行通信? 我希望能够以透明方式在docker1(10.10.0.3)和连接到vpn(172.19.0.x范围)的客户端之间进行基于tcp的通信。 我需要在docker(networking / iptables / …)端和主机上设置什么(iptables?)

Samba over OpenVPN – 非常慢

我已经build立了一个运行OpenVPN的服务器,目的是让客户远程访问Samba共享。 服务器运行CentOS 5.6,一个体面的四核至强CPU和大量的RAM。 我testing过的客户端是Windows 7 x64机器,也是相当高的规格。 结果是上传和下载到客户端的速度大约是60KB / s。 我知道Samba在重复访问方面效率很低,但即便如此,客户端的下行带宽为50Mbps,上行带宽为4Mbps。 即使客户端的上传速度是瓶颈,但仍然比这慢了9倍。 在传输过程中,服务器和客户端的CPU使用率可以忽略不计,因此必须排除密码速度。 服务器和客户端都打开相应的OpenVPN端口; OpenVPN密码是带有160位SHA1 HMAC的AES-128-CBC; TLS密钥也被使用,以及压缩。 任何想法这可能是什么? 我知道桑巴速度很慢,但是肯定这是不对的!

OpenVPN和NFS挂载的时间问题(Debian Squeeze)

我试图通过Debian Squeeze上的OpenVPN链接挂载NFS文件系统。 问题在于init脚本的默认布局等尝试在启动VPN之前挂载NFS文件系统。 使用默认configuration,系统在引导过程中只是挂起。 我的OpenVPNconfiguration是标准的(/ etc / openvpn中的.conf文件),我的fstab是 10.123.4.5:/path1 /localpath1 nfs rw,acl,relatime,soft,intr 0 0 10.123.4.5:/path2 /localpath2 nfs rw,acl,relatime,soft,intr 0 0 10.123.4.5:/path3 /localpath3 nfs rw,acl,relatime,soft,intr 0 0 我尝试在/etc/network/interfaces为我的物理接口(eth1)添加openvpn vpnname ,当它启动eth1时尝试启动VPN,但仍尝试先挂载NFS。 closures也是一个问题:使用默认configuration,OpenVPN在使用NFS挂载的服务之前停止,所以挂起/重新启动挂起。 我怎样才能使这个工作? 清洁“这是”正确“的方式”解决scheme首选; 务实的解决scheme被接受。 🙂

无法通过PAM和ldaplogin:无法获取密码

我试图让OpenVPN通过LDAP将用户通过PAMauthentication到Active Directory服务器。 以下是我的configuration文件的相关部分: /etc/openvpn/server.conf : # … plugin /usr/lib64/openvpn/plugins/openvpn-plugin-auth-pam.so ldap-login /etc/nslcd.conf : uri ldap://prod-adc1.mydomain.local base DC=MyDomain,DC=Local uid nslcd gid ldap /etc/pam.d/ldap-login : auth sufficient pam_ldap.so minimum_uid=1000 use_first_pass auth required pam_deny.so password sufficient pam_ldap.so minimum_uid=1000 use_first_pass password required pam_deny.so 当我尝试进行身份validation时,我在日志中看到以下内容: / var / log / secure : Dec 4 22:22:42 localhost openvpn[25505]: pam_ldap(ldap-login:auth): failed to get […]

OpenVPN失败通过udp的自签名证书,通过tcp工作

我有以下server.conf: # OpenVPN 2.x config proto tcp port 1194 dev tun-vpn dev-type tun server 10.8.0.0 255.255.0.0 push "route 172.16.0.0 255.255.0.0" push "dhcp-option DOMAIN mydom.com" push "dhcp-option DNS 172.16.1.1" # Certificates ca /etc/openvpn/easy-rsa/keys/ca.crt cert /etc/openvpn/easy-rsa/keys/server.crt key /etc/openvpn/easy-rsa/keys/server.key tls-server # Diffie hellman parameters dh /etc/openvpn/easy-rsa/keys/dh1024.pem # Connection settings comp-lzo ping 10 ping-restart 120 # Server security persist-key […]

如何将连接到DD-WRT的客户端的所有stream量路由到它的OpenVPN隧道tun0?

我正在设置一个辅助(DD-WRT)路由器作为OpenVPN客户端,以便所有的客户端只需连接到路由器即可获得VPN访问权限。 但似乎客户端的stream量总是通过主网关,而不是build立的VPN隧道。 build立 ISP modem+router(gateway) <–LAN cable–> DD-WRT OpenVPN client <–LAN/WIFI–> clients 这个二级DD-WRT OpenVPN客户端可以连接到远程OpenVPN服务器。 我可以通过首先telnet到DD-WRT ping主机在服务器端子网。 OpenVPN服务器也显示DD-WRT客户端连接正确。 wget -O – http://icanhazip.com返回远程服务器的公有IP。 所以隧道正常。 问题 来自连接到我的DD-WRT的客户端的stream量通过我的网关路由器,而不是通过VPN隧道tun0。 我想我需要将stream量从br0接口转发到tun0接口。 我已经尝试了下面的iptables规则,并检查IPv4转发已启用 。 cat /proc/sys/net/ipv4/ip_forward ==> 1 cat /proc/sys/net/ipv4/conf/tun0/forwarding ==> 1 cat /proc/sys/net/ipv4/conf/br0/forwarding ==> 1 # These rules are saved by pressing the 'Save firewall' button #and rebooting the DD-WRT router. […]

基于TCP的OpenVPN,可怕的延迟,但只在Win7 x64

我知道通过TCP封装TCP通常是一个可怕的想法,但是我可以处理偶尔出现的性能下降和MTU问题,TCP内部的雪球效应提供了错误控制在这两个层次上起作用的地方。 Windows 7 x64上的最新OpenVPN客户端存在可怕的延迟问题,在隧道内对主机进行ping操作会导致> 500ms的ping时间,并导致整体性能下降。 吞吐量看起来不错,它确实只是延迟。 但是,在同一台计算机上,Linux 64位上的OpenVPN客户端(Ubuntu 10.04,相同的OpenVPN版本,相同的OpenVPNconfiguration,没有不同的设置)运行完美。 〜30ms,一切都很实用。 在同一台交换机上,同样的OpenVPN客户端版本,相同的configuration文件,在Mac OS X 10.5(PowerPC)也完美地工作。 我无法解释这一点。 我已经尝试了各种各样的东西,例如将虚拟适配器的MTU值降低到1400(因为商业切换的可怕的文档提到这个不是在Windows上dynamic设置的,并且推荐这样的动作),我试过了在全球TCP设置中禁用ECN,烟囱和CTCP,开启和closuresLzo压缩,牺牲一只山羊,没有什么更好的。 有任何想法吗? 起初,我认为在Windows上OpenVPN的PMTU支持不足是造成这种情况的原因,但是我尝试了使用Windows XP,它的工作原理也是完美无缺的。 我从用户那里得到了报告,它也能在Windows 7 32位上完美地工作。 此外,文档似乎说,MTU设置对于TCP连接是毫无价值的,并且用于UDP。 tl;博士:TCP上的OpenVPN是慢的,但只有在Windows 7的64位,一切工作正常。 是什么赋予了? 非常感谢,如果有人能回答这个问题,我会永远欠我的睡眠债务。

通过OpenVPN进行端口转发

这是我的场景。 我有三个主机。 1)运行OpenVPN服务器的GATEWAY。 它有1个LAN IP(192.168.1.10)和1个OpenVPN IP(10.8.0.1)。 2)LOCAL-CLIENT,与GATEWAY在同一局域网内的一台机器,有一个局域网IP(192.168.1.12) 3)REMOTE-SERVER,一个作为OpenVPN服务器客户端的MySQL服务器。 它有1个公共IP和1个OpenVPN IP(10.8.0.51)。 我希望能够通过VPN从LOCAL-CLIENT连接到远程服务器上的MySQL。 到目前为止,我已经启用了IP转发,并添加了像这样的端口: echo "1" > /proc/sys/net/ipv4/ip_forward iptables -t nat -A OUTPUT -p tcp –dport 3306 -j DNAT –to 10.8.0.51 这从GATEWAY的作品,我可以连接到MySQL使用192.168.1.10作为主机。 但是,当我从本地客户端尝试时,我得到一个“连接被拒绝”错误(使用MySQL客户端或telnet端口3306)。 我在这里错过了什么? 顺便说一句,我也试着转发HTTP端口来testing运行在REMOTE-SERVER上的Apache,我也得到了相同的结果,所以这不是MySQL的问题。 更多信息: Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface 10.8.0.2 0.0.0.0 255.255.255.255 UH 0 0 0 tun0 10.8.0.0 […]

如何在无特权的LXC容器内创build/ dev / tun设备?

这个问题与openvpn的lxc guest中的No tun设备类似。 LXC已经发展起来,最近推出了无特权的LXC容器,为打破监狱提供了另一层安全保障。 我需要在一个非特权容器内创build一个OpenVPN服务器。 我不知道如何让容器创build一个私有的tunnetworking设备。 我确实追加了lxc.cgroup.devices.allow = c 10:200 rwm到~/.local/share/lxc/mylxc/config 。 启动容器后, mknod /dev/net/tun c 10 200返回mknod: '/dev/net/tun': Operation not permitted容器内部mknod: '/dev/net/tun': Operation not permitted 。 我使用一个香草Ubuntu 14.04 64位作为主机和一个容器创build lxc-create -t download -n mylxc — -d ubuntu -r trusty -a amd64 有没有人设法让/dev/tun设备在非特权LXC下运行?

OpenVpn网桥接口不响应来自外部networking的传入数据包!

我们正在尝试用openvpn设置一个roadwarrior vpn设置。 我们希望人们能够通过openvpn连接到我们的networking。 我们希望他们能够看到并连接到我们networking中的机器。 所以解决scheme是桥接vpn,因为我们看到。 我没有太多的networking环境的经验。 我正在通过ubuntu(我们已经build立openvpn服务器)和openvpn手册。 他们两方面都很缺乏。 https://help.ubuntu.com/10.10/serverguide/C/openvpn.html http://openvpn.net/howto.html 当我通过作为openvpn一部分的桥接启动脚本安装桥接接口时,我的networking出现故障,让我在我的networking中ping通。 我设置端口转发到我的openvpn服务器的端口1194正在工作,直到我设置桥接接口。 启用网桥后,我的机器与外部networking失去联系。 我相信我错过了一些事情要做。 我把我的ifconfig和netstat -rn输出之前和之后设置桥。 和我的服务器configuration文件和脚本下面。 #ifconfig之前 eth1 Link encap:Ethernet HWaddr 52:54:00:57:63:6e inet addr:192.168.22.230 Bcast:192.168.22.255 Mask:255.255.255.0 inet6 addr: fe80::5054:ff:fe57:636e/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:4857 errors:0 dropped:0 overruns:0 frame:0 TX packets:3199 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:518272 (518.2 KB) […]