Articles of networking

亚马逊EC2公有DNS是没用的?

似乎公共DNS,例如ec2-xxxx.compute-1.amazonaws.com将在您停止或终止实例时更改。 所以这意味着它们和ec2的公有IP地址有相同的生命周期 ,那么我为什么要使用这个公有的DNS呢? 他们不容易记住,而且毫无意义。

便宜但高度可用的共享存储?

我的团队在大量存储市场。 我们传统上使用大型的FC连接的SAN,但是它们是昂贵的,并且提供比我们所需要的更多的性能。 我们希望高度可用的共享存储,如果它像本地桌面级驱动器一样执行,那没问题。 有没有共享磁盘解决scheme可以让我们更慢,但更大的磁盘? 我们喜欢NexSan SataBeast,但是他们并没有一个完全的全球化的存在,这使得支持尴尬(我们是一家全球性的公司)。 有没有这种types的存储,你会推荐? 我们更愿意使用FC连接存储,但我们愿意提供build议。 谢谢, Wout的。 编辑 :要回答澄清的要求,我们想 全球可用的硬件支持 几十个结核病的成长能力 高度可用性:能够通过常见故障提供服务,因此: 可热插拔的驱动器 多pathIO 主动/主动控制器 像这样的东西,成本/收益比较低 只有NFS可能是一个选项,取决于HA的性能和性能 价格:无论花费多less,但尽可能less 基本上我想知道什么价格性能可用性的3Dgraphics看起来像目前。 如果存在尖锐的指数曲线,我会对这些肘部的系统感兴趣。 如下所述,这可以通过服务于iSCSI和主机级软件RAID6的PC级硬件场来完成。 这certificate无论EMC高端存储arrays成本如何,这可能太多了。

Linux:防止传出TCP泛滥

我在负载均衡器后面运行了数百个networking服务器,它们拥有许多不同的应用程序(我无法控制)。 每月大约一次,其中一个网站被黑客攻击,上传一个洪水脚本来攻击一些银行或政治机构。 在过去,这些都是UDP洪水,这是通过阻止在个人networking服务器上传出的UDPstream量有效解决。 昨天他们开始从我们的服务器上淹没一个大型的美国银行,使用许多TCP连接到端口80.由于这些连接types对我们的应用来说是完全有效的,所以阻止它们不是一个可以接受的解决scheme。 我正在考虑以下替代scheme。 你会推荐哪一个? 你有没有实现这些,以及如何? 限制networking服务器(iptables)传出TCP数据包的源端口!= 80 相同,但排队(tc) 限制每台服务器每个用户的传出stream量。 相当的pipe理负担,因为每个应用程序服务器可能有1000个不同的用户。 也许这个: 我怎么能限制每个用户的带宽? 还要别的吗? 当然,我也在研究如何最大限度地减less黑客进入我们的托pipe网站的机会,但由于这种机制永远不会100%防水,我想严格限制入侵的影响。 更新:我目前正在testing这些规则,这将阻止这种特定的攻击。 你如何build议使它们更通用? 当我只对SYN数据包进行速率限制时,是否丢失了已知的TCP DoS攻击? iptables -A OUTPUT -p tcp –syn -m limit –limit 100/min -j ACCEPT iptables -A OUTPUT -p tcp –syn -m limit –limit 1000/min -j LOG –log-prefix "IPTables-Dropped: " –log-level 4 iptables -A OUTPUT -p tcp –syn […]

为什么要将iscsistream量隔离?

为什么iSCSI应该隔离SANstream量? 我试图向我的networking人员解释为什么我们应该隔离stream量。

思科3550可以用作路由器吗?

最近我拿起一台思科3550来玩networking,并熟悉思科的命令行configuration,因为我将在电气工程实习中处理各种networking问题(是的,我同意一个CSNA会更适合这个任务,但是因为它是工作要求的一部分,所以我愿意学习)。 我想知道的是,我的3550是否可以充当路由器。 我知道它是一个L3交换机,但这是否意味着它可以代替路由器? 编辑:因为它似乎有可能设置我的3550充当路由器,你们可能指向我的一些文件,可能会帮助我设置? 我想我需要使用ip route命令,但我不完全确定这是否是正确的方法。

在大型RTT上,从1Gbps服务器的TCP吞吐量低于100Mbps服务器的TCP吞吐量

我们的基础设施遍布世界各地 – 新加坡,伦敦和洛杉矶。 任何两个地点之间的RTT超过150毫秒。 我们最近升级了所有的服务器以使用1Gbps链路(从100Mbps)。 我们已经在不同地点的服务器之间运行了一些基于TCP的testing,并且看到了一些令人惊讶的结果。 这些结果是完全可重复的。 洛杉矶(100Mbps)到伦敦(100Mbps):〜96Mbps吞吐量 洛杉矶(100Mbps)到伦敦(1Gbps):〜96Mbps吞吐量 洛杉矶(1Gbps)到伦敦(100Mbps): 10-40Mbps吞吐量(易失性) 洛杉矶(1Gbps)到伦敦(1Gbps): 10-40Mbps吞吐量(易失性) 洛杉矶(1Gbps)到洛杉矶(1Gbps):吞吐量> 900Mbps 似乎每当发送者以1Gbps运行时,我们的吞吐量在长链接上受到非常大的影响。 之前的testing方法非常简单 – 我只是使用cURL从目标服务器下载1GB二进制文件(因此,在上述情况下,cURL客户端在伦敦服务器上运行并从洛杉矶下载,因此LA是发件人) 。 这当然是使用单个TCP连接。 使用iperf通过UDP重复相同的testing,问题消失! 洛杉矶(100Mbps)到伦敦(100Mbps):〜96Mbps吞吐量 洛杉矶(100Mbps)到伦敦(1Gbps):〜96Mbps吞吐量 洛杉矶(1Gbps)到伦敦(100Mbps):〜96Mbps吞吐量 洛杉矶(1Gbps)到伦敦(1Gbps):吞吐量> 250Mbps 这正好指出了一些TCP或NIC /端口configuration问题。 两台服务器都运行CentOS 6.x,使用TCP立方体。 最多有8MB的TCP发送和接收窗口,并且启用了TCP时间戳和select性确认。 所有testing用例都使用相同的TCPconfiguration。 完整的TCPconfiguration如下: net.core.somaxconn = 128 net.core.xfrm_aevent_etime = 10 net.core.xfrm_aevent_rseqth = 2 net.core.xfrm_larval_drop = 1 net.core.xfrm_acq_expires = 30 net.core.wmem_max = 8388608 net.core.rmem_max = 8388608 […]

networking吞吐量问题(ARP相关)

我工作的小大学有一些非常奇怪的networking问题。 我在这里寻找任何build议或想法。 我们在夏天过得很好,但是在秋季学生回到校园后的几天,麻烦就开始了。 症状 主要症状是,互联网接入将起作用,但速度非常缓慢,经常到达超时。 例如,Speedtest.net的典型结果将返回0.4Mbps的下载速度,但允许3到8Mbps的上传速度。 较less的症状可能包括将数据传输到我们的文件服务器或从我们的文件服务器传输数据的性能严重受限,甚至在某些情况下无法login到计算机(无法访问域控制器)。 这个问题跨越了多个vlan,并且几乎在我们运行的每个vlan上都实现了设备。 该问题不会影响networking上的所有机器。 一台不受影响的机器通常会从speedtest.net下载至less 11Mbps的数据,而且这个数字可能要远远高于当时较大的校园stream量模式。 在更大的问题上有一个变化。 我们有一个vlan,用户根本无法login几乎所有的机器。 IT人员将使用本地pipe理员帐户(或在某些情况下caching的凭据)login,并从那里释放/更新或ping通网关将使机器工作…一段时间。 使这个问题复杂化的是这个vlan覆盖了我们的计算机实验室,它使用称为Deep Freeze的软件在重新启动后完全重置硬盘。 它可能只是相同的问题,因为机器上陈旧的数据,并没有永久改变低层次的信息几个星期不同的显示不同。 然而,我们可以通过创build一个新的vlan并将实验室迁移到新的vlan批发来解决这个问题。 Instigations 最终我们注意到受影响的机器都有近期的dhcp租赁。 我们可以通过观察一个DHCP租约续约的时间来预测一台机器何时变得“慢”。 我们在设置testingvlan的租用时间非常短的时候玩过,但是所有这些都消除了我们预测机器什么时候会变慢的能力。 具有静态IP的机器几乎一直正常工作。 手动释放/更新地址不会导致机器变慢。 事实上,在某些情况下,这个过程已经固定了一台机器。 但大多数情况下,这并没有帮助。 我们也注意到像笔记本电脑这样的移动设备在跨越新的虚拟机时可能会变得很慢。 校园内的无线networking被划分为“区域”,每个区域映射到一小组build筑物。 搬到一个新的build筑可以把你放在一个区域,从而使你得到一个新的地址。 从睡眠模式恢复的机器也很可能很慢。 缓解措施 有时(但并非总是),清除受影响机器上的ARPcaching将使其再次正常工作。 如前所述,释放/更新本地机器的IP地址可以修复该机器,但不能保证。 屏蔽默认网关有时也可以帮助一台慢速机器。 似乎最有助于缓解这个问题的是清除核心三层交换机上的ARPcaching。 此交换机用于我们的dhcp系统,作为所有vlan上的默认网关,并处理vlan间路由。 该型号是3Com 4900SX。 为了缓解这个问题,我们把交换机上的高速caching超时设置到最低的时间,但是没有帮助。 我还将每隔几分钟运行一次的脚本自动连接到交换机并重置caching。 不幸的是,这并不总是奏效,甚至可能导致一些机器在很短的时间内处于缓慢的状态(尽pipe这些似乎在几分钟后自行纠正)。 我们目前有一个每10分钟运行一次的计划任务,迫使核心交换机清除它的ARPcaching,但这远非完美或可取的。 再生产 我们现在有一台可以随意强制进入缓慢状态的testing机器。 它连接到一个端口为每个vlan设置的交换机。 我们通过连接到不同的vlan来使机器变慢,并且在新的连接或两个连接之后,它会变慢。 在本节中也值得注意的是,这在之前的条件开始之前就已经发生了,但过去几天之后,这个问题已经消失了。 它在我们有机会做很多诊断工作之前就已经解决了,所以为什么我们这次把它拖到这个时候这么长时间呢? 预计这将是一个短暂的情况。 其他因素 值得一提的是,去年我们有大约六台交换机彻底失败。 这些主要是2003/2004年代的3Coms(大多是4200年代),几乎同时进行。 他们应该仍然在保修范围内,购买惠普已经使服务有些困难。 主要是在电源失败的情况下,但是在一些情况下,我们使用了主板故障的交换机的电源,使电源故障的交换机恢复正常。 我们现在有四台交换机中的三台交换机都有UPS设备,但是两年半前我就没有这种情况。 […]

我在哪里可以将专有信息embedded到第2层或第3层数据包中?

Citrix Netscaler具有一个有趣的属性,将信息embedded发送到主机的TCP数据包中。 这个属性被回显给Netscaler,Netscaler可以使用它来确定这个虚拟服务器,主机和路由必须采用哪一个。 将专有信息回显到主机的能力具有有趣的应用。 Citrix Netscaler如何实现这个function(在哪里填充这些位)以及Netscaler(或类似设备)在数据包中的其他位置可以在理论上填充数据? 什么设备将(或不会)允许这个自定义数据通过不变?

通过SSH访问Apple Time Capsule

有没有办法安装或激活sshd在苹果时间胶囊中的方式,你可以下载dd-wrt和安装netgear路由器上的自定义固件? 我想启用sshfs访问Time Capsule。 并可能安装pyTivo让它为我的Tivo提供文件。 任何人这样做?

用IPTables限制ICMP每个源IP

我误以为限制模块是每个源IP,但它似乎是基于所有请求: 577 36987 ACCEPT icmp — * * 0.0.0.0/0 0.0.0.0/0 icmp type 8 limit: avg 3/sec burst 5 46 3478 LOG icmp — * * 0.0.0.0/0 0.0.0.0/0 icmp type 8 LOG flags 0 level 4 prefix `INET-PING-DROP:' 46 3478 DROP icmp — * * 0.0.0.0/0 0.0.0.0/0 icmp type 8 … 0 0 ACCEPT icmp — […]