一点背景 我们有一个用户用来存储各种数据的Windows 2008服务器。 它有共享到一个特定的文件夹,需要由几个Ubunutu服务器通过CIF访问。 直到最近,我们不得不对Windows服务器进行WannaCry攻击。 还更新了Ubuntu服务器(运行Ubuntu 16.04.02 LTS) 除了更新没有任何改变 – 所有的configuration是相同的,并且工作了好几年。 networking上没有变化 问题: 现在,如果客户端无法访问,则Windows 2008服务器上的samba共享将在几分钟(大约10分钟)后超时。 (通常每隔几个小时发生一次,当一个import或一个出口需要从共享中提取或保存时)。 要清楚 – 共享在Ubuntu客户端上安装,并按预期工作,如果没有进程使用该连接,它会在几分钟后超时。 临时解决scheme:我们设置了cron任务,每隔5分钟触摸windows共享文件以保持连接活跃)。 – 这是帮助 用sudo用户每五分钟运行一次mount -a完成一个cron任务。 我想找出原因并提出一个长远的解决办法。 编辑: 每个评论: 我的mount命令在/ etc / fstab(用capreplace敏感信息) //SERVER.HOST.NAME/apidata /var/www/pai3/shared/data/production/k_drive/data cifs username=USER,password=PASS,iocharset=utf8,sec=ntlm,workgroup=DOMAIN.COM,rw,uid=1000 0 0
我们的组织正在为我们的主要数据中心提供商支付相当多的单一IP传输费用。 现在我们已经准备好开始考虑转换到与运输提供商的直接关系。 这里的问题稍微涉及到这个问题,但不是很全面。 例如,接受的答案是Cogent和Hurricane Electric被认为是廉价的供应商,而AT&T的Telia则被认为是更好的。 它没有做的是解释为什么一个提供者可能比另一个更好。 我对BGP,多宿主以及对等和过境的概念非常熟悉,但是我没有理解为什么这些提供者中的一些会比其他提供者更好。 要清楚的是,我并不是要求提供提供者的build议,也不是要提到这个提到的任何名字。 我非常乐意去做我自己的“购物”研究。 我只是有问题,我需要比较苹果苹果,我不知道该找什么! 如果有所作为,我们的组织在英国。
我不是我们正常的networking人员…我刚刚被起草帮助解决这个问题,所以请耐心等待。 我们有一个相当大的(大约4000个设备?)networking,大部分是由HP Procurve设备组成的。 在过去的几个星期里,我们一直在收到一些广播风暴,几乎所有的stream量都是通过networking传送的。 我build立了Wireshark做5MB的转储,今天早上我在这个行为中发现了一些。 您可以下载数据包捕获 。 乐趣始于包#23968。 看似畸形的NBNS数据包一遍又一遍地重复着。 但是,这不仅仅是一个直线循环。 源(143.226.8.185)和目标(143.226.44.79)IP地址保持不变,但源MAC地址更改。 第一个数据包似乎来自networking上的一些微不足道的设备,并被发送到多播地址01:00:5e:7f:ff:fa。 之后的所有数据包都来自我们惠普无线接入点的MAC地址,并发送到不同的多播地址01:00:5e:62:2c:4f。 这是第一包: No. Time Source Destination Protocol Info 23968 122.229240 143.226.8.185 143.226.44.79 NBNS Unknown operation (10) unknown Illegal NetBIOS name (1st character not between A and Z in first-level encoding) unknown Illegal NetBIOS name (1st character not between A and Z in first-level […]
我目前正在为埃塞俄比亚一所大学规划一个庞大的networking基础设施,并希望人们对我的计划提出意见。 请记住,我从来没有做过networking。 校园覆盖实验室,行政pipe理,教学,宿舍等80余座build筑。 所有的build筑将有有线,无线,VoIP和打印机。 每栋build筑有3层楼,工作人员和学生电脑的组合。 数据中心将提供SAN存储和软件PBX。 部署是Win2k8。 我在整个安装过程中使用了思科设备,其中包括带有1Gbps或10Gbps光纤连接(MM和SM)的思科6500 L3核心交换机到5个通信间。 每个通信机房还配有Cisco 6500 L3交换机。 每栋build筑物都使用1Gbps光纤连接(MM)连接到最近的通信室。 每座大楼将有一台Cisco 2960 L2交换机,上行链路连接到1楼和2楼。 我使用vlan来分隔子网,如下所示: Building 1 – > VLAN 10 – >有线电脑 – > 10.1.0.1 – 10.1.15.254 – > 255.255.240.0 build筑1 – > VLAN 11 – >学生电脑 – > 10.1.16.1 – 10.1.31.254 – > 255.255.240.0 1号楼 – > VLAN 12 – >无线计算机 […]
我的数据中心有一个服务器,它有多个公有路由IP地址,现在我正在运行ESXi来pipe理它。 之前,我有一些虚拟机在创buildnetworking的主机下运行: inet [xxx210] — Host OS |– .211 — VM 1 \– .212 — VM 2 现在,我想在pfSense和VMware下执行以下操作: inet lan [xxx210] — (NAT) — [192.168.1.1] |– .211 — VM1 |– .2 — VM3 \– .212 — VM2 \– .3 — VM4 在VM3和VM4获得由pfSense进行NAT转换的私有IP的情况下,以及VM1和VM2仍然在同一个适配器上通过,但现在正在获得自己的公有IP。 我在浏览pfSense的界面时遇到了困难,要弄清楚这应该如何完成。 我希望公共IP仍然通过DHCP发布,所以一旦pfSense支持,我可以添加到IPv6隧道中。 此外,仍然能够使用pfSense作为防火墙也是最好的(否则这样做的目的是失败的)
我想在我的debian服务器上禁用tcp-offloading(“TOE”)。 ethtool -K ….. 不过,我有一些愿望: 把它整合到debian中 这读取:没有rc.local,我也想避免伪rc脚本… 我猜测,它正在安装ethtool并使用pre-up.d / -Hook来使用/ etc / network / interfaces中的选项来取消configurationTOE。 我想使用FAI以通用的方式解除所有(未来)服务器的configuration。 (因为fai已经到位了 – 想要!)有些硬件不支持的脚趾选项呢? 如果应禁用不存在的选项,联网是否会失败? 我想这应该是强健的不这样做,但这似乎并不是我想要的解决scheme,要么。 它非常混乱configuration,因为atm有11个选项! 使用多个网卡,这对我来说很容易出错。 没有更通用的解决scheme吗? 我有一个sysctl,但没有find一个呢。 我的愿望是: echo 0 > /proc/sys/net/core/enable_tcp_offloading PS:我很惊讶地发现我的“新硬件”默认启用了TOE,因为: http : //www.linuxfoundation.org/collaborate/workgroups/networking/toe
我们有一个惠普procurvenetworking和大约20个标准的借记/信贷pinpadterminal,每个人都习惯在几乎每一家商店看到这些天。 它们直接连接到局域网,只能通过SSL / 443与支付站点通信。 没有软件或服务器在中间。 问题是设备在第一次尝试使用时通常会导致TCP连接失败。 然后,他们会正常工作一个小时。 但是,如果允许闲置10-15分钟(约),他们会抛出最初的错误一次。 最初,他们都来自一家公司,我们认为这与他们的设置或制造/模型有关。 但是最近,我们已经从一个完全不同的供应商那里安装了一些新的设备,使用不同types的pinpads …并且它们有相同的错误。 我们已经尝试了静态与DHCP IP寻址。 我们已经将外部付款网站添加到特殊的防火墙规则,允许他们没有正常的威胁检查退出。 我们已经尝试过各种Vlans。 我们已经尝试将它们转化为各种types的区域切换。 甚至已经尝试了一个预定的batch file,他们每隔3分钟将它们(自制的)保留下来。 没有什么区别。 在networking问题方面,这些设备都与其附近的现金电脑/打印机完全相同,并且没有任何问题。 现金系统运行完整的客户端/服务器/数据库应用程序,如果因为该地区的networking不好而出现同样令人不安的问题,我们会很快听到。 我将要解决的最新理论与arpcaching超时有关,但我刚刚开始。 将不胜感激一些援助…疯狂的想法也欢迎。 W.
注意:我已经有了解决这个问题的办法(如下所述),所以这只是一个“想知道”的问题。 我有一个高效的安装与约50个主机,包括运行xen 4的刀片和提供iscsi的equallogics。 所有的xen dom0s几乎都是纯Debian 5.这个configuration在每个dom0上都包含了几个网桥来支持xen桥接networking。 每个dom0总共有5到12个网桥,每个网段都服务一个vlan。 没有主机启用路由。 在某个时间点,我们将其中一台机器移到了一个包含raid控制器的新硬件上,所以我们安装了带有xen补丁的上游3.0.22 / x86_64内核。 所有其他机器运行debian xen-dom0-kernel。 从那时起,我们注意到在设置中的所有主机上,每2分钟就会发现以下错误: [55888.881994] __ratelimit: 908 callbacks suppressed [55888.882221] Neighbour table overflow. [55888.882476] Neighbour table overflow. [55888.882732] Neighbour table overflow. [55888.883050] Neighbour table overflow. [55888.883307] Neighbour table overflow. [55888.883562] Neighbour table overflow. [55888.883859] Neighbour table overflow. [55888.884118] Neighbour table overflow. [55888.884373] Neighbour table overflow. […]
我试图使用一个多虚拟机vagrant环境作为部署OpenStack的testing平台,并且遇到了一个联网问题,试图从一个虚拟机到虚拟机内部的虚拟机进行通信。 我有两个Vagrant节点,一个云控制器节点和一个计算节点。 我正在使用主机专用networking。 我的Vagrantfile看起来像这样: Vagrant::Config.run do |config| config.vm.box = "precise64" config.vm.define :controller do |controller_config| controller_config.vm.network :hostonly, "192.168.206.130" # eth1 controller_config.vm.network :hostonly, "192.168.100.130" # eth2 controller_config.vm.host_name = "controller" end config.vm.define :compute1 do |compute1_config| compute1_config.vm.network :hostonly, "192.168.206.131" # eth1 compute1_config.vm.network :hostonly, "192.168.100.131" # eth2 compute1_config.vm.host_name = "compute1" compute1_config.vm.customize ["modifyvm", :id, "–memory", 1024] end end 当我尝试启动一个基于QEMU的虚拟机时,它在compute1上成功启动,其虚拟nic(vnet0)通过桥接器br100: root@compute1:~# brctl […]
我想我的iptables规则自动加载启动。 根据Debian上的wiki,这可以通过在/etc/network/if-pre-up.d/中放置一个名字为iptables的脚本来完成。所以我确实是这样的: cat /etc/network/if-pre-up.d/iptables #!/bin/sh /sbin/iptables-restore < /etc/firewall/iptables.rules /sbin/ip6tables-restore < /etc/firewall/ip6tables.rules 这个脚本的作品:如果我作为根运行它我的防火墙规则得到应用。 但重启时没有防火墙规则。 我究竟做错了什么? 根据要求:/ etc / network / interfaces(我没有碰到这个文件) jacko@DebianVPS:~$ cat /etc/network/interfaces # This file describes the network interfaces available on your system # and how to activate them. For more information, see interfaces(5). # The loopback network interface auto lo iface lo inet […]