Articles of 联网

当目标机器脱机时,Windows 10 arpcaching在尝试失败后陷入困境

将我们的开发团队从7升级到Windows 10之后,我们遇到了ARP高速caching问题,其中机器具有正确的IP-MAC映射高速caching,但是由于在目标机器的电源循环期间连接失败,该types无效。 在Windows 10上,而不是在Windows 7上,目标计算机无法连接到ARPcaching清除。 我可以重现这个问题如下,其中10.10.10.10是正确的IP地址和01:23:45:67:89:AB是目标机器的正确的MAC地址: 从closures的目标机器开始,并通过整个testing进行ping: ping -t 10.10.10.10 Ping正在回复“请求超时”,ARPcaching包含,如预期的那样 10.10.10.10 00:00:00:00:00:00 invalid 开启目标机器。 Ping开始获取答复,并且ARPcaching更新为 10.10.10.10 01:23:45:67:89:AB dynamic 到现在为止还挺好。 closures目标机器。 Ping开始报告“请求超时”,ARPcaching保持不变 10.10.10.10 01:23:45:67:89:AB dynamic 大约40秒后,ping响应一个请求的“Destination host unreachable”,然后返回报告“Request timed out”,ARPcaching变为 10.10.10.10 01:23:45:67:89:AB invalid 打开目标计算机的电源,ping(以及任何其他连接)将不会find它,直到您清除ARPcaching,或者至less删除具有无效types的正确IP-MAC映射的违规项。 考虑到开发环境中的目标机器在开发过程中往往需要电源循环,我该如何防止ARPcaching进入这种状态? 手动操纵ARPcaching是不可持续的,在移植到Windows 10之前没有人报告过这个问题。 Windows 7的function正如人们所期望的那样,也就是说,我们期望的是:ARPcaching经历与上述相同的阶段。 Ping通过在目标机上电之前回答“目标主机不可达”开始,而不是Windows 10的“请求超时”,并且在关机后不断返回到“目标主机不可达”,而不是Windows 10仅报告一次。 当机器启动时,连接立即build立,ARPcaching返回 10.10.10.10 01:23:45:67:89:AB dynamic 无需先清除任何条目。 开发人员的具体设置是通过一个简单的非托pipe8端口千兆交换机连接到几个Beaglebone Blacks(运行Linux的小型ARMembedded式主板)的Windows工作站。 IP地址由保留的DHCP分配,并且每次BeagleBee上电时都能成功地获取地址。 当一台Windows 10计算机有无效ARP条目需要删除时,ARPcaching中没有Beaglebone的其他计算机可以成功连接到目标计算机。

获取浮动ip从mmm工作在Ubuntu的Tinc vpn

我现在有3个与Tinc VPN连接的Ubuntu服务器。 2台服务器运行MySQL 5.6分贝,第三台只用作监视器。 我们使用mmm来进行监控,并将一个浮动IP分配给一个写入者angular色。 (之前有人告诉我,我不应该使用嗯,我知道还有其他解决schemeHA数据库复制,但是对于我们的目的,asynchronous解决scheme实际上比新的同步选项更好,我们有嗯运行在一个不同的应用程序,所以我已经有点熟悉了,所以我们为此select了它,即使是它的缺点,总比没有任何东西好)。 我遇到的问题是,浮动写作ip永远不会正确路由。 这是mmm_control show的输出: server4(192.168.2.4) master/ONLINE. Roles: writer(192.168.2.201) server5(192.168.2.5) master/ONLINE. Roles: 所以嗯,我认为它有.201 ip分配给.4服务器,但是当我ping .201,我得到这个: From 192.168.2.201 icmp_seq=1 Destination Net Unknown 基本的tinc设置工作正常 – 我可以在3台服务器之间ping / ssh / etc: 64 bytes from 192.168.2.4: icmp_seq=1 ttl=64 time=0.740 ms 基本的mmm设置正在工作 – 如果我将写入者angular色移动到server5,也可以工作(server4变为只读,server5现在可写,mmm_control的输出显示.201写入者angular色现在在server5上)。 我不知道的是,如果有一些简单的configuration,我错过了(我的背景是作为一个程序员,我需要知道的基础上学习networking/系统pipe理员的东西)。 或者,也许嗯分配浮动ip的方式是不符合tinc vpn的工作方式? (我们使用mmm的其他系统不使用tinc vpn,所以我不能直接在那里比较)。

无法ping l2tp vpn连接上的其他本地ips,得到:ping:sendmsg:没有这样的设备

我已经使用xl2tp设置了一个l2tp客户端连接到一个l2tp vpn服务器。 服务器连接要求将连接设置为不带ipsec。 所以我build立了一个基本的xl2tp连接。 连接似乎工作,我得到一个IP地址从VPN服务器,这是可见的,当我运行ifconfig。 不过,我不能ping任何networking上我已经连接到networking上,有一个特定的IPnetworking上我需要连接到:10.10.251.32,但是当我尝试我得到这个错误:“ping:sendmsg:没有这样的设备”。 我尝试使用ping命令:ping -I ppp0 10.10.251.32。 我已经尝试从其他机器连接到vpn,我分配的IP地址例如:10.10.2.163,10.10.2.120或10.10.2.114 10.10.2.xxx子网中, 这是我的xl2tpd.conf: [global] access control = no auth file = /etc/ppp/chap-secrets debug avp = no debug network = no debug packet = no debug state = no debug tunnel = no [lac vpn-connection] lns = xx.xx.32.43 redial = yes redial timeout = 5 require […]

如何在我的局域网上识别一个stream氓IPv6 DHCP服务器?

这将是一个很长的职位,但我想提供完整的信息。 我有一个家庭/企业局域网与isc-dhcp-server运行一个ipv4 dhcp服务器,并绑定为在Ubuntu服务器框上运行的DNS服务器。 我有comcast业务,并且网关禁用了所有的dhcpfunction。 为了杀死ipv6,直到我准备好处理它,在我的所有Linux机器上,我已经用grub命令和sysctl参数禁用了ipv6: surfrock66@sr66-hp2:~/.scripts$ cat /etc/default/grub | grep -v "#" GRUB_DEFAULT=0 GRUB_TIMEOUT=5 GRUB_DISTRIBUTOR=`lsb_release -i -s 2> /dev/null || echo Debian` GRUB_CMDLINE_LINUX_DEFAULT="quiet ipv6.disable=1 acpi_backlight=vendor" GRUB_CMDLINE_LINUX="" surfrock66@sr66-hp2:~/.scripts$ cat /etc/sysctl.conf | grep -v "#" net.ipv6.conf.all.disable_ipv6 = 1 net.ipv6.conf.default.disable_ipv6 = 1 net.ipv6.conf.lo.disable_ipv6 = 1 net.ipv6.conf.eth0.disable_ipv6 = 1 net.ipv6.conf.wlo0.disable_ipv6 = 1 surfrock66@sr66-hp2:~/.scripts$ 这些系统上没有ipv6。 所以,在我认为是一个无关的说明,我的android和chromecast设备有wifi问题。 我看到的主要问题是连接速度过慢,导致超时和失败。 那么,我正在做一些故障排除,并执行一个iperf … iperf应用程序列出了一个ipv6地址以及一个ipv4之一。 […]

什么可以阻止连接到特定交换机的计算机的DHCP?

我最近用千兆pipe理交换机replace了我们办公室里的一些10/100交换机,我发现连接到其中一台交换机的计算机没有从服务器获得DHCP租约。 这不是什么大问题,因为办公室几乎所有的东西都使用静态IP,但是我确实有办公室的一些区域,有一个无线AP连接到这个交换机(先通过另一个pipe理交换机),连接到这些AP的设备没有获得DHCP租约。 我想我已经确定它是这个开关,因为我testing了以下内容: 服务器切换开关的客户端 从DHCP Server — suspect switch in server room — other managed switch 1 — laptop with DHCP enabled更换DHCP Server — suspect switch in server room — other managed switch 1 — laptop with DHCP enabled (无租用) 到DHCP Server — other switch in server room — other managed switch 1 — laptop […]

GRE隧道TTL号码

这是服务器A上的设置: iface serverA_gre0 inet tunnel address 172.24.0.85 mode gre endpoint xxxx dstaddr 172.24.0.86 netmask 255.255.255.252 ttl 255 在服务器B上设置: iface serverB_gre0 inet tunnel address 172.24.0.86 mode gre endpoint xxxx dstaddr 172.24.0.85 netmask 255.255.255.252 ttl 255 没有“ttl 255”: traceroute to 172.24.0.86 (172.24.0.86), 30 hops max, 60 byte packets 1 * * * 2 * * * 3 […]

“广播地址”是否需要在dhcpd.conf中定义的子网内?

理想情况下,广播地址应该是定义的子网的最后一个地址。但是我没有看到dhcp服务器强制执行这种限制。dhcpd.conf中子网外定义的brodcast地址是否被dhcp服务器接受? 例如下面的广播地址configuration是有效的,但如何: 子网10.10.10.0子网255.255.255.0 {选项广播地址20.20.20.20; } 为什么dhcp服务器接受子网10.10.10.0/24的广播地址20.20.20.20?

透明代理到Dockernetworking意味着TCP被破坏

我的日志logging设置是一个单一的Docker主机,UDP 514暴露给syslog。 一个nginx容器的端口已经发布,所以当你发送日志到10.1.1.100(在下面的图片中),它首先命中nginx,其configuration为透明负载平衡Logstash容器是: user root; events {worker_connections 32768;} stream { upstream logstash_servers { server logstash-collector-01:514; server logstash-collector-02:514; server logstash-collector-03:514; } listen 514 udp; proxy_pass logstash_servers; proxy_bind $remote_addr transparent; } } 这工作正常。 但是,TCP 514(或任何TCP,就此而言)不是。 即使当我添加了正确的监听器和configuration,我相信TCP握手并没有完成,因为在nginx做透明的负载平衡,它的proxy_bind传递,例如10.1.1.5作为源IP到例如172.18.0.4(一个Logstash实例)。 然后,该实例尝试完成握手,但10.1.1.5(以及任何路由器)不知道如何路由到172.18.0.0/16的Dockernetworking。 有没有一种解决scheme可以使用TCP进行日志logging?

虚拟接口dummy0有什么特别之处?

我创build虚拟接口来设置dynamic路由,这一切工作正常。 但是我发现了一个我不能解释的奇怪细节:出于某种原因,当创build一个名为dummy0的虚拟接口时,即使接口已经正确创build并且工作正常,我dummy0得到一个错误信息,而当使用其他名称时,消息显示: root@sdsdd:~# ip link [lo and eth0 not shown] root@sdsdd:~# ip link add dummy0 type dummy RTNETLINK answers: File exists root@sdsdd:~# ip link add dummy1 type dummy root@sdsdd:~# ip link [lo and eth0 not shown] 3: dummy0: <BROADCAST,NOARP> mtu 1500 qdisc noop state DOWN mode DEFAULT group default link/ether c6:9c:73:8b:17:77 brd ff:ff:ff:ff:ff:ff 4: dummy1: […]

VMWare虚拟机黑色控制台/ APIPA

在我们的环境中,我们似乎有一些奇怪的问题,并没有find根源解决问题的好运气。 所以当我们升级系统的时候,问题通常就在于这个问题。 一旦机器完成configuration(或在晚上重新启动),它将被分配一个APIPA地址(见图),然后控制台将无限期地显示黑色。 APIPAADDRESS 控制台仍然是交互式的,只要能够看到窗口内的鼠标光标,但一切都是黑色的,你不能点击任何东西。 根据评论,忘记包括道歉,这是Windows 7机器,这发生。 我们通常没有服务器或其他操作系统的重新启动(因为我们没有为最终用户使用除Windows 7之外的其他任何东西,我们正在运行大约300多个Windows 7用户虚拟机。但是当我们重新启动它们的时候,它仍然没有问题,但是技术上来说,它本身就是一种不同的环境),所以我不能说这是否会发生在他们身上。 我们试图解决这个问题: 使用分层技术重新构build机器(重新组装registry,重新安装应用程序,重新连接驱动器等)。 没有效果不幸。 删除networking适配器,重新附加它。 没有效果。 将计算机迁移到同一群集中的另一台主机。 没有效果。 将适配器移动到群集中的另一个分布式交换机。 没有效果。 这是相当头痛的我们和任何帮助将不胜感激。