我注意到在我的路由输出RHEL6(和大多数2.6.x系列Linux),每个接口我看到在我的内核路由表中创build以下路由: 169.254.0.0 0.0.0.0 255.255.0.0 U 1018 0 0 bond0 169.254.0.0 0.0.0.0 255.255.0.0 U 1019 0 0 bond1 169.254.0.0 0.0.0.0 255.255.0.0 U 1020 0 0 bond2 我的理解是,当自动地址configuration失败时(当dhcp中断时)使用链路本地地址。 当DHCP失败时,系统将自己分配一个可用的链路本地地址(或多或less)。 在你的家伙的经验,这些是必要的吗? 我在networking中使用手动/静态IP分配,所以没有自动地址configuration。 因此,自动地址configuration不会失败。 我可以安全地移除这些路线吗? 还是有其他的黑客/理由,我应该让这些家伙? 迭戈
我有多个USB到以太网设备插入到同一台PC。 有没有一种方法来确定哪一个通过USB端口/ etc映射到哪个eth *networking接口? 我试过在lsusb和/ proc中查找,但还没有find任何有用的东西。
我有一个应用程序,客户端通过基于TLS / SSL的简单TCP协议连接到服务器。 在开发过程中,在我们构build应用程序的过程中,这已经运行了好几个月。 最近,当我们准备启动时,我已经提前将HAProxy添加到混合中,以便实现一些负载分配的顺序。 从技术上讲,一切都是有效的,但问题是,客户现在看到了完全随机的超时。 它们通常不一致,但发生时间大约为60秒。 有时会在25秒后发生。 haproxy转发TCP连接的服务器来通知并做一个干净的断开连接,问题是你不希望大量的同时连接中断和重新连接,没有任何理由反复。 除了其他方面之外,这对我们的发布/订阅基础设施也有影响。 客户很聪明,可以马上重新连接 – 但是这不是我们想要的行为。 负责通过SSL接受这些TCP连接的服务器不需要保持活动状态。 我将继续,并假设有一些隐含的价值,我没有看到我的HAProxyconfiguration造成这些随机超时,或需要一个TCP保持活着的东西。 事实上,超时并不总是一致的,但是,让我怀疑,否则。 如果每一次我都相信这是一个configuration问题,那么这个点就是60秒。 在这种情况下,并不总是60秒。 以下是我现在的configuration: global stats socket /home/haproxy/status user haproxy group haproxy log 127.0.0.1 local1 info # log 127.0.0.1 local5 info maxconn 4096 ulimit-n 8250 # typically: /home/haproxy chroot /home/haproxy user haproxy group haproxy daemon quiet pidfile /home/haproxy/haproxy.pid defaults log […]
我们有一个间歇性故障,正在影响我们的一台HP ProCurve交换机的控制系统。 由于某种原因,直接连接到HP交换机的PLC(10mbit端口-192.168.6.56)会间歇性地启动接收的数据,而这些数据并不是指向它的。 数据正从一个Thecus NAS以最新固件(192.168.6.218)传送到运行Win2003R2和SAP(192.168.6.225)的物理IBM服务器。 这个问题并不只是发送到这个服务器,它也是以前的其他物理服务器,但是总是来自Thecus NAS。 我正在使用一个监视器端口来监视PLC进出的情况 – 通常每2或3分钟就会有1mb的input/输出 – 只有一台服务器询问线圈的状态。 出现问题时,PLC线上会出现大量数据,在这个捕获的例子中,不到一分钟,就有大约67MB的数据。 由于这个原因,PLC不能被查询,因为端口被有效地定量,反过来又杀死了我们的一部分工厂。 我知道在IT上生产同一个vlan并不是一个好主意 – 我同意,但是现在不能改变(必须等待3个月),而且问题也只发生在最后3个个月。 以下是从HP交换机上的PLC端口捕获的Thecus NAS发送的一个数据包的屏幕截图: 这1024KB的文件中有700多个。 如果任何人有任何想法可能会发生什么,一些帮助将不胜感激。 如果您还需要了解更多信息,请告诉我! 干杯!
我有一个运行TCP连接的游戏服务器。 服务器随机断开用户。 我认为它与服务器的TCP设置有关。 在本地开发环境中,编写代码可以处理超过8000个并发用户,而不会有任何断开或错误(在本地主机上)。 但在实际部署的Centos 5 64位服务器中,服务器独立于并发tcp连接数量创build这些断开连接。 服务器似乎无法处理吞吐量。 netstat -s -t IcmpMsg: InType0: 31 InType3: 87717 InType4: 699 InType5: 2 InType8: 1023781 InType11: 7211 OutType0: 1023781 OutType3: 603 Tcp: 8612766 active connections openings 14255236 passive connection openings 12174 failed connection attempts 319225 connection resets received 723 connections established 6351090913 segments received 6180297746 segments send out […]
我的V系列NAS正在运行ontap 7.3,并从SAN获取所有磁盘 。 将LUN提供给Netapp,将其放入RAID-0。 当然,SAN本身使用RAID来进行擦除和故障分析。 基本上,我们使用SAN来处理所有的磁盘,并将NAS作为文件的前端。 没有Netapp本地磁盘 – 即使是文件pipe理器的根聚合也在SAN上。 也就是说,现在Netapp所做的每周清理是(默认): nas> options raid.scrub.enable raid.scrub.enable on 由于SAN处理自己的磁盘,并且由于这些都是只能同时失败的所有LUN,所以我可以安全地禁用清理吗? 它做比磁盘检查更多的东西吗?
我目前正在build立一个实验室来熟悉微软新的“工作文件夹”function。 我正在寻找一种方法来放弃文件夹redirect和脱机文件。 到目前为止,我有一台Windows 7客户端连接到我的服务器synced-share(必须安装一个额外的软件包)。 这个工作文件夹显示在桌面下=>用户=>工作文件夹 ,在文件下面,等等。 现在我想知道如何将所有的用户文件夹(文档,下载,collections夹,…)移动到这个工作文件夹。 那里有没有最好的实践或真实的生活经验? 我在这里感到困惑…有人可以对此有所了解吗? 提前致谢 [附录] 在我的实验室环境中工作得很好的是应用GPO,将文档,下载…redirect到C:\ Users \%username%\ Work Folders \ Documents。 IO甚至可以提升性能,因为IO仍然是本地的,不需要通过networking传输。 在这种情况下,我不认为在文件夹redirect方面存在一种解决方法。
某些数据包没有到达目标主机,我有一个很奇怪的问题。 当我们传送比MTU稍大的POST时,就会发生这种情况。 我们可以用这个脚本重现它: #!/usr/bin/python import urllib2 magic_length = 2297 logurl = 'http://www.example.nl/' data = (magic_length – len(logurl)) * 'X' headers = {'content-type': 'application/x-www-form-urlencoded', 'User-Agent': 'Fake'} request = urllib2.Request(logurl, data, headers) handler = urllib2.build_opener(urllib2.HTTPHandler()) answer = handler.open(request, timeout=5) 发送方没有收到ACK并重传。 接收方从来没有看到它。 这取决于你在哪里运行脚本,以及你在哪里发布。 我的家庭连接是失败的(顺便说一下,自从几个月以来,我一直有AJAX POST的问题,因为我有一个新的调制解调器)。 如果我将发送机器的MTU减less100,那么它再次工作。 但是,如果我把magic_length减less100,它magic_length失败。 第一个理论是,我的一层ADSL(如PPPoA)添加了报头,导致数据包被错误地分割,但似乎并不是这样。 也许MTU发现出了问题。 有些跳线阻止所有的ICMP也许? 这是从我家到谷歌的traceroute的第一部分: traceroute to google.com (74.125.133.102), 30 hops max, […]
过去,我pipe理过戴尔的EMC和Equallogic SAN。 最近我负责了惠普的P2000 SAN。 惠普和EMC使用略有不同的术语。 我想确认我了解惠普的术语。 你能validation/更正下面的一些定义吗? 虚拟磁盘。 分组成RAIDarrays的物理磁盘的集合。 EMC将这些称为“存储池”。 虚拟磁盘和存储池与“RAID组”不完全相同,但它们的用途相同。 卷。 虚拟磁盘的逻辑分区,作为单个卷呈现给主机。 EMC将这些称为“LUN”,LUN是适当的术语。 存储组。 与“存储池”不同,EMC SAN可以定义“存储组”,可以将多个LUN组合成提供给主机的单个卷。 我在HP SAN上找不到与此类似的东西。 全球备件。 没有分配给任何虚拟磁盘的物理硬盘驱动器。 如果虚拟磁盘中的硬盘驱动器发生故障,则SAN会自动使用可用的备用驱动器来更换驱动器,并使虚拟磁盘容错。 EMC将这些称为“热备件”。 对于两个供应商,备件不需要分配给特定的RAID组或虚拟磁盘。 SAN将使用它们用于任何发生故障的硬盘驱动器。 关于Equallogic SAN:Equallogicarrays从arrays中的所有可用磁盘创build一个RAID组和一个LUN。 pipe理员只能select:RAID组的RAIDtypes,以及存储组的数量和大小。 我认为我有这些条款是正确的,但我想validation与谁使用两个供应商的SAN的人。 我特别担心的是,我找不到惠普的存储组。 惠普确实有办法将多个LUN合并为一个逻辑卷。 我错过了设置的地方?
我有一个Docker容器暴露端口3306到互联网。 我想限制访问某些公共IP地址。 作为一个例子,我们使用1.2.3.4。 作为一个附加条件,我希望规则能够在重启Docker守护进程并重新启动服务器的过程中生存下来。 这使我可以使用iptables-persistent ( iptables-save / iptables-restore )来重新启动服务器时恢复规则,而不会影响dockerd启动。 我尝试了以下内容: 修改FORWARD链: iptables -I FORWARD -p tcp –dport 3306 -j REJECT iptables -I FORWARD -p tcp –dport 3306 -s 1.2.3.4 -j ACCEPT 这在启动Docker守护进程后完成。 当重启守护进程时,Docker在链的顶部插入额外的规则,我的自定义规则最终被忽略。 修改DOCKER链: iptables -N DOCKER # if chain does not yet exist iptables -I DOCKER -p tcp –dport 3306 -j REJECT iptables […]