Articles of 联网

为什么www.example.com比example.com更好?

我记得在设置网站的时候,最好使用www.example.com而不是web服务器上的example.com。 为什么呢?到底是这样? 我从networkingpipe理员POV问。

有限的带宽和每个用户的传输速率

我search了一会儿,但没有find具体的东西,希望有人能帮助我。 我将在千兆位端口上运行Debian服务器,并希望为每个用户提供公平的互联网访问份额。 第一个目标很简单 – 每个用户的传输速度(速度)。 从我看过的,IPTables / Shorewall可以轻松完成工作。 这是很容易设置,或者你们中的一个可以指向我的configuration? 我希望限制用户每个300mbit或650mbit。 第二个目标变得复杂。 由于使用框,大多数stream量将是内部networkingstream量,不计入配额。 但是,我仍然需要限制外部stream量,如果超过,请切断访问(或将stream量限制在非常低的速度(10mbit?))。 假设用户有3TB的外部stream量限制。 IF部分是:如果他们正在交换stream量的主机名不匹配.ovh。 或.kimsufi。 (公司拥有多个顶级域名),计入配额。 一旦所说的配额超过3TB,就呛死它们。 我在哪里可以find一个系统来为我计算? 它也需要重置或能够每月手动重置。 谢谢提前!

jenkins奴隶失败握手在窗口

我有一个win2k8机器用作我们的CI主服务器(Jenkins) 我有其他各种服务器作为奴隶运行 主站正在侦听端口2000上的从站连接 SlaveA – 可以连接到2000年的主人 SlaveB – 在2000年无法连接到主站 SlaveB – 可以连接到另一个端口上的主站 SlaveA – 只有2000个可用作开放端口 SlaveB – 似乎并没有使用端口2000的任何东西,并没有任何防火墙规则,使用netstat SlaveA和SlaveB的行为在几种不同的机器上是常见的。 也就是说,我有3个不相关的服务器(不同的主机,不同的networking),不连接和几个可以连接。 从属代理在连接失败时的输出是: 03-Oct-2011 15:07:22 hudson.remoting.jnlp.Main$CuiListener <init> INFO: Hudson agent is running in headless mode. 03-Oct-2011 15:07:22 hudson.remoting.jnlp.Main$CuiListener status INFO: Locating server among [http://myserver:8080/] 03-Oct-2011 15:07:22 hudson.remoting.jnlp.Main$CuiListener status INFO: Connecting to myserver:2000 03-Oct-2011 15:07:22 hudson.remoting.jnlp.Main$CuiListener status INFO: […]

在封闭的networking中安装VMware VSA

我想在我的networking中部署VMware VSA的安装,为此我在每个服务器上安装了2xquad nics(2个Dell PE 1950) 一切看起来都很好,但是安装程序却抱怨一些NFS地址冲突,我不明白,因为它是一个完全封闭的networking。 networking简图: 所以,如您所见,我直接在服务器之间连接VSAnetworking。 但是,这实际上是支持,还是我必须使用交换机和可路由的IP? 我的vCenter服务器通过不同子网上的“站点到站点”VPN进行连接。 ESXi服务器位于192.168.99.X / 24子网中,vCenter服务器位于10.100.100.X / 24子网中。 我将192.168.253.X / 24的VSAconfiguration为前端networking,将192.168.254.X / 24configuration为后端networking。 我自己configuration​​portgroups,因为安装程序抱怨这不是一个绿地安装。 VSA install configuration: VSA Management Network Settings: VSA Cluster IP Address: 192.168.253.10 VSA Cluster Service IP Address: 192.168.253.20 Subnet Mask: 255.255.255.0 Gateway: 192.168.99.1 Host Network Settings: 192.168.99.236 Management IP Address: 192.168.253.210 Datastore IP Address: […]

snmp MIB-TCP :: tcp没有显示任何用法

我正在尝试在所有服务器上configurationMRTG来制作networking天气图,这需要运行SNMP,MRTG从中获取信息。 所以,我用完全相同的方式将它安装在两台服务器上。 但是,在第二台服务器上,SNMP不能检索或显示TCP信息,这里是运行的输出 snmp -c my_community_string -v1 localhost TCP-MIB::tcp : > snmpq TCP-MIB::tcp TCP-MIB::tcpRtoAlgorithm.0 = INTEGER: 0 TCP-MIB::tcpRtoMin.0 = INTEGER: 0 milliseconds TCP-MIB::tcpRtoMax.0 = INTEGER: 0 milliseconds TCP-MIB::tcpMaxConn.0 = INTEGER: 0 TCP-MIB::tcpActiveOpens.0 = Counter32: 0 TCP-MIB::tcpPassiveOpens.0 = Counter32: 0 TCP-MIB::tcpAttemptFails.0 = Counter32: 0 TCP-MIB::tcpEstabResets.0 = Counter32: 0 TCP-MIB::tcpCurrEstab.0 = Gauge32: 0 TCP-MIB::tcpInSegs.0 = Counter32: 0 […]

无法在Proxmox的openvz容器上同时使用私有和公共ipnetworking

我正在使用Proxmox 3,这是一个全新的安装。 对于那些知道,我使用OVH Vrack 1.5(以及以前的Vrack 1.0)。 我的服务器有两个接口eth0和eth1,我成功地在主机节点上configuration了私有和公有ip,并且能够ping通vlan上的所有服务器。 现在,我创build了一个OpenVZ容器,并在Proxmox GUI(简单venet)中分配了公共和私有IP。 假设我使用172.16.0.129作为内部networking。 一旦我在容器中login,我能够成功地ping所有我的私人networking,但我无法达到任何公共IP。 这是主机节点configuration: ifconfig dummy0 Link encap:Ethernet HWaddr 8a:ee:41:c1:ec:53 inet6 addr: fe80::84ed:41ff:fec1:ec53/64 Scope:Link UP BROADCAST RUNNING NOARP MTU:1500 Metric:1 RX packets:0 errors:0 dropped:0 overruns:0 frame:0 TX packets:29 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:0 (0.0 B) TX bytes:1950 (1.9 KiB) eth0 Link encap:Ethernet HWaddr 00:32:90:a7:43:48 […]

自动configurationVMware的vSwitch(OpenStack / libvirt / Nova)

现在有很多关于VMware与OpenStack集成的讨论。 我注意到,Novanetworking服务正在使用VMware的标准和vDS。 在我们的环境中部署一个完整的OpenStack实例目前是不可行的,但是我们想要使用他们用于Standard vSwitch自动化的任何技术。 除了使用Open vSwitch,这对于我们现有的设置来说并不理想,我无法find任何方式来使用libvirt。 目前,我们正在使用VMware的虚拟机助手(vMA)来控制vSphere标准networking交换机,但希望转向更独立于平台的技术。 所以我想知道是否有人知道使用什么工具/ API Nova来自动化VMware的vSwitch。 有没有人有一个想法?

Windows 7上的事件ID 4227 tcp / ip警告

我们正在部署一个新的图像到现场,我们看到tcp / ip事件ID 4227警报定期全天(1-3天)。 事件消息如下所示: 由于所选的本地端点最近用于连接到相同的远程端点,TCP / IP无法build立传出连接。 当传出连接以高速率打开和closures时,通常会发生此错误,导致使用所有可用的本地端口,并强制TCP / IP重新使用本地端口进行传出连接。 为了最大限度地减less数据损坏的风险,TCP / IP标准要求从给定本地端点到给定远程端点的连续连接之间的时间间隔最短。 我创build了一个脚本来监听这个eventid,并立即检查“netstat -ano”。 脚本总结了什么状态的端口,但我没有看到大量的端口打开。 以下是脚本的输出: 50个端口处于LISTENING状态 状态为TIME_WAIT的3个端口 在ESTABLISHED状态的58个端口 我不明白为什么如此less量的港口会触发4227警告。 有没有人有任何见解? PS>我已经设置TcpTimedWaitDelay注册条目为30秒这个链接 。 我还使用这些命令将dynamic端口范围configuration为更大: Netsh int ipv4 set dynamicport udp start = 35535 num = 30000 Netsh int ipv4 set dynamicport tcp start = 35535 num = 30000

子网内的某些IP不可达

我正在运行3个Debian-Servers,每个都有自己的IPMI。 所有的IP都在同一网关的同一个子网内。 问题是,每台服务器可以ping自己的IPMI,但不能ping其他2台服务器的IPMI。 也就是说,所有3个IPMI和服务器都可以通过IP从外部进行ping命令和访问。 每个服务器有2个网卡,eth0是外部networking,eth1用于服务器之间的内部stream量。 我的networkingconfiguration如下所示: 为eth0 1.2.3.84 (Server1) 1.2.3.85 (Server2) 1.2.3.86 (Server3) 1.2.3.71 (IPMI Server1) 1.2.3.76 (IPMI Server2) 1.2.3.66 (IPMI Server3) 1.2.3.65 (Gateway) 255.255.255.224 (Netmask) ETH1 10.10.10.1 (Server1) 10.10.10.2 (Server2) 10.10.10.3 (Server3) / etc / network / interfaces (在本例中是Server1的一个) auto eth0 iface eth0 inet static address 1.2.3.84 netmask 255.255.255.224 gateway 1.2.3.65 # default route […]

按networking适配器和进程分解WindowsnetworkingIO

我想要做的是通过networking适配器和进程分解networkingIO。 目标是确定哪些进程在某个networking适配器上生成最多的IO。 资源监视器允许按进程监视networkingIO,或通过适配器监视networkingIO,但不能通过2个参数(进程+networking)将其分解,因此您可以在某个适配器上看到IO,但无法辨别出哪一个正在运行的进程正在为该IO做出贡献。 或者你可以看到有多lessnetworkingIO正在生成每个进程,但你无法辨别哪个networking适配器。 与Windows Perf计数器,进程监视器,进程浏览器等相同的限制 根据你的经验,你有什么build议,哪个公用事业对这个任务有好处? 我不是在寻找一个高级的捕获工具,只需要通过一个特定的适配器对进程进行计数。 期待您的回音 :)