我有一个问题,即使在没有任何错误的情况下应用规则,他们也不起作用 现在我的configuration iptables -A PREROUTING -t mangle -s 192.168.0.113 -p tcp -m multiport –dports 80,443 -j MARK –set-mark 3 现在该表格有以下条目 MARK tcp — 192.168.0.113 0.0.0.0/0 multiport dports 80,443 MARK set 0x3 testingconfiguration,找出IP地址 MacBookCROSP:~ crosp$ ping www.dd-wrt.com PING www.dd-wrt.com (83.141.4.210): 56 data bytes 64 bytes from 83.141.4.210: icmp_seq=0 ttl=55 time=34.097 ms 做一些http请求 root @ CROSP路由器:〜#cat / […]
我有一个functionopenvpn连接到数字海洋debian服务器。 这是我的路由表, ip route : 0.0.0.0/1 via 10.8.0.5 dev tun0 default via 192.168.1.1 dev eth0 onlink 10.8.0.1 via 10.8.0.5 dev tun0 10.8.0.5 dev tun0 proto kernel scope link src 10.8.0.6 128.0.0.0/1 via 10.8.0.5 dev tun0 159.203.40.61 via 192.168.1.1 dev eth0 192.168.1.0/24 dev eth0 proto kernel scope link src 192.168.1.132 一切皆好。 如果我跟踪我的debian机器(159.203.40.61),第一跳就立即成为默认网关,因为规则159.203.40.61 via 192.168.1.1 dev eth0 […]
要在基因隧道上创build一个桥梁,我的/etc/network/interfaces需要遵循以下“额外”指令: bridge_ports fancytun bridge_stp pre-up ip link add dev fancytun type geneve 1.2.3.4 vni 1234 pre-up ip link set dev fancytun up post-down ip link set dev fancytun down post-down ip link del dev fancytun 在networking启动/closures期间,我应该在哪里放置这些指令不会造成任何问题? 我想 – 例如 – 无效的状态,因为桥和上/下脚本configuration为IPv4,但IPv6首先开始; 或相反亦然。 指令的地位是否相关? 为了完整起见,这里是可以应用于隧道+桥的桥接口configuration: 汽车fancybr0 iface fancybr0 inet static 地址192.168.0.1 networking掩码255.255.255.0 ##可以在这里出现bridge_ + up / […]
我有几个Linux的盒子,每个2x网卡连接到同一个networking10.0.0.0/8但每个都有一个其他的网关。 我希望能够使用NIC和IP进行通信,所以如果应用程序X绑定到IP .187,那么应该使用eth0。 如果应用程序Y绑定到IP .189,则应使用eth1。 现在只有.187正在回应请求。 (如果我将默认路由更改为eth1 .189,则出站stream量正确使用eth1) 特定 Box 1: eth0 = 10.5.68.187/31 eth0_gw = 10.5.68.186/31 eth1 = 10.5.68.189/31 eth1_gw = 10.5.68.188/31 途径 基于我的研究, 在这里 ,我在这里创build了一个bash脚本,它应该添加路由,所以可以通过两个nics进行通信。 #/bin/bash # My Vars with IP and GW for eth0 eth0_ip=$(ip -o -4 addr list eth0 | awk '{print $4}' | cut -d/ -f1) eth0_gw=$(ip route list dev […]
我有一台服务器。 它configuration了一个公共的IP,我有/ 29子网通过网桥分配。 KVM安装并按预期工作。 我可以创build和启动虚拟机,但是当涉及到定义networking访问时,事情就会出现问题。 如果我手动input访客的IP(来自/ 29)。 我input主机IP作为网关,然后收到网关不可访问的消息。 这里是/etc/network/interfaces auto lo iface lo inet loopback iface lo inet6 loopback auto br0 iface br0 inet static address 144.76.15.98 netmask 255.255.255.224 gateway 144.76.15.97 pointopoint 144.76.15.97 bridge_ports eth0 bridge_stp off bridge_maxwait 0 bridge_fd 0 up route add -host 136.243.185.120 dev br0 up route add -host 136.243.185.121 dev br0 […]
我的任务是获得在两台Linux机器和一台OpenBSD机器上工作的NTP客户端。 机器是这样排列的: NTPServer / \ / \ L1 L2 \ / \ / OpenBSD 我被告知configurationL1和L2将数据包从OpenBSD传送到NTPServer(即不设置新的层)。 OpenBSD的盒子不能看到NTPServer(即networkingconfiguration禁止这个 – 从OpenBSD的盒子我甚至不能ping通NTPServer的IP地址)。 现在坏消息是:我是一名J2EE程序员:)对于如何继续,我没有太多想法。 我从哪开始呢? 我不是在寻找一个完整的解决scheme,显然人们不知道networkingconfiguration,只是从哪里开始的几个指针。 我知道Linux在与J2EE相关的东西(安装Tomcat / JBoss,将它们设置为服务等)方面相当不错,但是networking路由对我来说真的是非常新鲜的东西,并且总是吓到我(自从我不得不写一些Java代码检测BGP翻转)。 编辑 好的,多亏Google,我已经取得了一些进展。 以上所有都是错误的(除了我是一个J2EE程序员)… 使用ifconfig , routes show , traceroute和一些内部文档,我现在有下图: NTP 10.21.3.169 | \______________ | \ 10.21.3.160 (eth1) | L1 | 10.0.0.67 (eth0) | | | | | 10.0.0.65 (pcn1) | OpenBSD […]
我已经在所有HP ProCurve 7102路由器以及我们大部分的内部Linux路由器上成功configuration了OSPF。 路线得到广告,所有都是桃色。 除了进入由各公司的各种OpenVPN服务和其他VPN连接处理的子网的路由。 请考虑下面的图片,其中显示了公司networking的一部分: 红色箭头是VPN连接。 底部的蓝色区域描述了OSPF区域0(主干),其中包括所有其他办公室的路由器。 粉红色的地区描绘了我们的办公室之一的OSPF区域177。 橙色的矩形是OpenVPNnetworking,在Linux路由器上用蓝色箭头表示。 10.177.0.0/16子网已正确通告给所有其他OSPF区域。 但是,尽pipenetworking10.180.1.0/24包含在OSPFconfiguration中,并且接口tun0包含在区域177中(作为被动接口),但是该子网不会被公布。 那是因为这实际上是外部路线? 如果是这样,我将如何告诉OSPF守护进程通告该路由?
我正在testing一个Linux机器的IPv6延迟,我注意到了IPv4 ping和IPv6 ping之间的这个奇怪的区别: # ping -n -A -q -c 500 speedtest.steffann.nl PING speedtest.steffann.nl (10.3.10.20) 56(84) bytes of data. — speedtest.steffann.nl ping statistics — 500 packets transmitted, 500 received, 0% packet loss, time 240ms rtt min/avg/max/mdev = 0.297/0.364/7.213/0.317 ms, ipg/ewma 0.481/0.358 ms 平均rtt为0.364,计数为500,所以占了182ms。 240ms的运行时间稍微高一点,但这并不是一个令人惊讶的开销。 现在IPv6 ping: # ping6 -n -A -q -c 500 speedtest.steffann.nl PING speedtest.steffann.nl(fd9c:262f:e839:310::20) […]
我正在运行Debian Linux 6.0(2.6.32-5-amd64)。 我的networkingNICS是运行IGBnetworking驱动程序版本3.3.6(固件版本3.2-9)的英特尔82580千兆位。 我testing了性能,我注意到了大量的数据包丢失。 我的testing很简单:把一个文件放到IGB接口上,然后在另一边运行tcpdump来validation所有数据包已经到达。 即使吞吐量小,我也经历了很多次的下降 我把端口切换到一个旧的e1000e驱动程序,一切都像一个魅力。 我试着做了以下,我得到了相同的结果: 降级的驱动程序版本安装了sorceforce igb驱动程序安装PF_RING与igb支持玩snaplen和缓冲我升级内核版本到最新的3.2.5 kernel.org 有没有人有任何想法如何解决这个问题? 谢谢
我不知道我是否错过了一些东西,但是当我将更多的iSCSI卷安装到所述的服务器上以将额外的存储添加到服务器时,我没有看到在运行发现命令之后装入卷的方法。 我希望能够做到这一点的推理是,我们正在运行一个应用程序,每当我们向该服务器添加额外的iSCSI卷时,都需要停机。 所以,最大的问题是,在CentOS 6.x x64中,有没有一种方法可以使用当前的iSCSI启动器来添加/删除iSCSI LUN而不需要循环服务,或者是否有第三方的商业iSCSI启动器可以用来获得这个function?