我在四核Nginx服务器上运行一个简单的httperf压力testing,指向一个HTML / PHP文档。 大的连接速度很快开始出现高连接和响应时间(请参阅下面结果中的中间连接时间和答复时间)。 是什么让这个令人费解的是,当一个Apache服务器重复testing服务相同的内容。 Apache服务器并没有相对的分心。 我注意到唯一的区别是在testingNginx服务器时(3315.6 KB / s vs 55.5 KB / s)的“Net I / O”值。 响应时间也有“转移”(849.6 ms)的巨大贡献,而Apache服务器的“0.0”在那里。 我的第一个想法是,networkingcaching不能在Nginx服务器上工作,导致更多的数据被传输,但事实并非如此,而且httperf也不是浏览器。 我的Nginxconfiguration理论上应该能够处理这个压力testing就好了。 我怀疑数据传输量是性能差的原因。 所以我的问题是:关于一个Nginxconfiguration,可以解释这个数据传输/内容长度的差异相对于Apache服务器托pipe相同的内容? 以下是两台服务器上的httperf结果,用于1000个连接的简单10秒testing: NGINX httperf –hog –server xxx.xxx.xxx.xxx –uri /test.html –num-conns 1000 –rate 100 httperf –hog –client=0/1 –server=xxx.xxx.xxx.xxx –port=80 –uri=/test.html –rate=100 –send-buffer=4096 –recv-buffer=16384 –num-conns=1000 –num-calls=1 httperf: warning: open file limit > FD_SETSIZE; limiting […]
我有点新的AWS,但我一直在Linuxpipe理员/工程师一段时间。 我有一个关于AWS DNS设置的问题。 我在Route53里设置了一个托pipe区域,这样我就可以configuration服务器使用主机名而不必为每个logging调整/ etc / hosts文件。 我进入了VPC并创build了DHCP选项集,并设置了我在Route 53 Hosted Zone中设置的域以及在那里列出的域名服务器。 这使我能够对我的域中的服务器进行查找,但显然,由于我从DHCP选项集中删除了默认的Nameserver,因此无法进行外部查询。 如果我使用默认的Nameserver创build一个Option Set,然后其他的分配给Domain的那个,那么它也不会使用任何东西,它只是使用resolv.conf中的第一个NS入口(我期望的)
目前的架构是这样组织的: 192.168.1.10,192.168.1.11,192.168.1.12 – 与马拉松和领事服务器mesos大师 192.168.1.21,192.168.1.22,192.168.1.23 – 三名中间人与领事代理人 每台机器有以下configuration: 它自己的IP地址作为DNS服务器 HAPROXY with consul-template用于自动生成haproxy.cfg 用于注册正在运行的docker集装箱的主机IP地址的通知,以避免在从不同的机器parsing时在DNS中具有172.1.0.1地址的服务 我目前遇到的问题是,当我启动docker容器与桥接模式的服务,该地址是由DNS解决,因为它应该是(如果你有luigi.service.consul它将完成没有问题) ,但是当我尝试CURL -L http://luigi.service.consul/ ,我有随机503 error codes ,有时地址parsing,有时不是。 任何想法如何调查? 我检查了/etc/resolv.conf并且/etc/resolv.conf地,我可以看到DNS地址更改为旧的DNS IP地址(8.8.8.8),我应该使用主机IP地址作为DNS IP,还是我需要使用领事领导地址? 我已经尝试debuggingtcpflow,当响应是503,就像等待一段时间,就像它是无法解决的服务。
我不时收到虚假的数据包丢失。 这个时间持续大约一个月,你可以在图上看到它。 我们使用相同的fping命令进行检查,完全没有损失。 所以也许是主机限制或不能处理它的东西? 但为什么在一段时间后自行修复? 任何帮助将不胜感激! 问题:主要原因是某些主机ping通了Cisco交换机,它对这些数据包有规则
我有一个nginx反向代理,我希望它将stream量转发到多个站点,并在端口443上监听所有这些服务。 我已经看到这样做了几个地方,似乎有一个反向代理设置的正常方式…它监听单个端口,并转发基于URL。 不过,我有一些设置,我认为有点奇怪,因为我有一个网站,通过IIS网站使用NTLMvalidation,因此,我使用nginxstream 这是我目前的configuration文件: /opt/nginx/nginx.conf stream { upstream backend { hash $remote_addr consistent; server mysite.domain.com:80 weight=5; server 192.168.0.5 max_fails=3 fail_timeout=30s; } server { listen 192.168.0.2:443 ssl; ssl_certificate /usr/local/nginx/conf/mycert.crt; ssl_certificate_key /usr/local/nginx/conf/mykey.key; ssl_session_cache shared:SSL:10m; ssl_session_timeout 5m; proxy_connect_timeout 1s; proxy_timeout 3s; proxy_pass backend; } } http { include mime.types; default_type application/octet-stream; sendfile on; keepalive_timeout 65; server { listen […]
我正在构build一个集成的networking操作门户,将来自多个资源的信息连接在一起。 有一件事我想了解的是networking的拓扑结构,我正在尝试用地铁来做。 不幸的是,我不认为它能够无视交换机,防火墙或虚拟(vSphere)交换机的IP地址。 我知道有几个跳跃到达终点。 这个输出是有用的,因为我能够理解端点之间跳转的麻烦,因此有了足够的数据我就可以确认同一序列(逻辑或虚拟)是什么,但是我希望能够了解这些细分如何融合在一起。 $ mtr –show-ips –report-wide 10.8.100.12 Start: Sat Feb 27 12:00:05 2016 HOST: tbrown Loss% Snt Last Avg Best Wrst StDev 1.|– ??? 100.0 10 0.0 0.0 0.0 0.0 0.0 2.|– ??? 100.0 10 0.0 0.0 0.0 0.0 0.0 3.|– drblah02.xyz.com (10.8.100.12) 0.0% 10 76.2 76.1 73.7 80.7 2.3 是否需要启用这些设备来提供这些信息?
在networking文件传输期间,将虚拟磁盘扩展到5TB之后,问题就开始了,至less会被注意到。 如果我将文件传输到服务器(运行2012 R2),它会写一段时间然后停止,然后再次开始传输,停止并且Windows机器通知文件传输超时。 从服务器读取文件时也是一样的。 同样的事情发生在我远程访问它的时候,我播放一个video文件,首先缓冲了一段时间播放头几秒钟,然后再次开始缓冲… 我试过chkdisk它说它没有发现任何错误,然后我转到Get-VirtualDisk,我发现虚拟磁盘运行状况处于警告状态,我使用Get-PhysicalDisk来确保硬盘是健康的,然后我只是跑之后的虚拟磁盘修复似乎将健康状况从警告转变为健康。 但问题依然存在,任何人都有这个问题的经验? 我有千兆以太网运行,所以我怀疑这是networking问题,但我会尝试排除故障。
我有一个戴尔XPS13(赢10临),因为我们没有无线局域网在办公室我不得不购买一个外部以太网适配器(DA200)。 该适配器在家里工作得很好,但在办公室里根本不起作用(即使适配器上的指示灯也不闪烁),而将其他电脑连接到以太网套接字时,我没有任何问题。 但是,如果我连接适配器到以太网交换机它的工作原理。 笔记本电脑是Win 2003域的一部分,在服务器上是安装的dhcp。 有没有可能是适配器不从DHCP服务器获得IP? 提前致谢。
我正在尝试按照许多文档中所述设置桥接接口,例如: https://help.ubuntu.com/community/OpenVPN 我的设置与此相同,除了显然我使用了我的GCE内部IP,我的网关GCE网关,并将MTU设置为1460。 有趣的是:我可以从命令行做到这一点,但是当我从启动作为一项服务来做到这一点时,我被locking在控制台之外。 以下是重新引导后无法访问服务器的串行控制台输出的最后几行: Mar 25 06:44:51 ns1 cloud-init[1086]: Cloud-init v. 0.7.7 finished at Fri, 25 Mar 2016 06:44:51 +0000. Datasource DataSourceNone. Up 14.15 seconds Mar 25 06:44:51 ns1 cloud-init[1086]: 2016-03-25 06:44:51,524 – cc_final_message.py[WARNING]: Used fallback datasource Mar 25 06:44:51 ns1 systemd[1]: Started Execute cloud user/final scripts. Mar 25 06:44:53 ns1 kernel: [ 15.680040] […]
寻找评估AWS区域服务最佳布局的方法。 我的设置从2个端点,NY4的服务器和亚洲的客户端中受到影响。 在他们之间是2 api啤酒花和networking服务器。 啤酒花走如下。 NY4 – tcp – API1 – json http – API2 – json http – Web服务器 – http / s – 客户端。 我可以把所有的东西放在北美,但是这会给亚洲客户带来一点点的延迟 我可以把所有的东西都倒在新加坡或者首尔,但是这会增加API1的延迟,这是因为我们无法控制的情况,所以在NY4服务器上的进一步变得更加不稳定。 有一件事情是有道理的,如果在北美设置API1,在FRankfurt设置API2,在新加坡设置Web服务器,但我不知道如何评估这个延迟与我描述的前两个布局(忽略不稳定的API1)。 什么是正确的系统方法来评估这样的拓扑结构?