Articles of 带宽

VPS上NGINX反向代理的硬件select和带宽限制?

下午好朋友。 目前,我们正在增加SaaS应用程序的基础架构,并需要2个应用程序专用服务器,每个服务器运行一个nodejs应用程序的多个实例。 我们托pipe服务器的公司确实提供了“现货供应”的IP负载均衡器,但是现在显然无法处理HTTPS,所以我们需要自己构build负载均衡器(反向代理)。 他们build议使用廉价的VPS,并configuration一个带反向代理和SSLterminal的NGINX。 我对这个还是比较陌生的,并且一直在进行大量的阅读,但是仍然有一些问题: VPS处理反向代理会有什么好的“规模”? SSL更多的内存,CPU或I / O任务的解密/encryption任务? 我应该优先考虑哪个? 实际的应用服务器有一个很好的512Mbps带宽和1Gbps突发,但是做所有客户端通信的VPS实际上只有100Mbps。 这是一个问题吗? 也许服务器可以configuration为直接回复客户端,而不是返回到VPS? 这是甚至可能的或可取的? 所以,我的问题实际上是我为了“现成的”解决scheme而跳槽,现在我需要手动configuration一切,我有点担心我需要的实际需求以及如何configuration它们。 任何有关如何处理基本SSL负载平衡的build议,将不胜感激。 如果我采取的方法是完全错误的,我愿意接受所有的build议。 在此先感谢,最好的问候, 拉法·波利特

如何在saas应用程序中监控客户端带宽?

我正在build立一个让客户拥有自己空间的SaaS。 他们得到一个子域,但他们也可以添加自己的自定义域通过设置他们的CNAME到我的服务器。 子域和自定义域不会停放,只是指向我的服务器,然后我的应用程序检查URL并显示正确的内容。 在这种情况下,我将如何监控每个子域和域的带宽? 如果这有什么不同,我使用PHP。

TC没有根据iptables MARK正确分类数据包

我有通过eth0连接到互联网的machineA。 另一方面,MachineB通过网格连接到machineA,并通过machineA连接到互联网。 我想优先考虑来自机器B的stream量。 现在,只要machineB的上传速率在两者竞争带宽的时候就受到限制。 我怀疑问题是用于ifb0的filter,我用它来形成传入的stream量。 该行: tc filter add dev ifb0 parent 1: prio 1 protocol ip handle 1 fw flowid 1:10似乎不工作,所有数据包通过默认stream程,而不是1:10。 我仔细检查了iptables,它正确地标记数据包。 这是我目前的脚本: #!/bin/sh -x # Bandwidth of home connection MAX_BW=10 #in Mbits MAX_BW_GUEST=10 MIN_GUEST_BW=1 #minimum guaranteed guest bandwidth in Mbits # Interface facing the Internet EXTDEV=eth0 # Clear old queuing disciplines (qdisc) on […]

使用公共外部IP访问数据库 – 带宽

在一个亚马逊EC2实例中,我们支付每个数据传输的input/输出。 也就是说,当发送到服务器时,就是数据传输。当用户访问某个网站时,数据正在被转移(页面的大小取决于文本的数量,图片的数量等等)。 服务器有SQL Server数据库,所以它的本地 。 但是,如果我尝试连接到数据库使用通过弹性公有IP而不是本地主机或私有IP在连接string中,它是否计数为数据传输出,就像它来自服务器外? 这是否消耗带宽?

如何分析在一组服务器上传输的字节?

我们有大约50个虚拟机。 我安装了collectd,石墨和grafana,我们有一些这样的stream量统计: 这产生一个这样的图表: 这些行是以KB /秒为单位的传入和传出带宽,但是我想要统计一下,可以告诉我在整个服务器场中,在09:00到17:00之间在GB中使用了多lessstream量。 找出在一组服务器上有多less用户数据的好方法是什么?

SSD带宽问题和分析

英特尔的P3700固态硬盘安装在具有两个Intel Xeon E5-2630 v3 CPU的Lenovo x3650 M5服务器上。 服务器运行Ubuntu 14.04 4.6.4内核。 我一直在使用fio来使用1MB块大小的同步顺序读取来对SSD进行基准testing。 带宽结果是〜1.4GB /秒。 这应该是最大的2.8GB /秒,相对较小。 我目睹了P3700在高端个人电脑上的类似基准testing达到了这个带宽。 使用blktrace我可以看到〜425usec有相当大的延迟,直到接收数据。 编辑 – 我实际上不知道〜425usec延迟是否很高,因为我与P3700规格的比较是不正确的。 连续读取的规格等待时间为20us,块大小为4KB 。 在我的系统上使用fio和4KB块大小来测量延迟我得到了〜50usec的平均值,这相当像样的恕我直言。 259,0 0 40510 1.298997405 21580 QR 99427328 + 1024 [read_simple] 259,0 0 40511 1.298998348 21580 XR 99427328 / 99427584 [read_simple] 259,0 0 40512 1.298998572 21580 QR 99427584 + 768 [read_simple] 259,0 0 […]

Server 2012 R2中的吞吐量问题

t3h interwebz的长辈! 我寻求你的一个奇怪的事情的智慧… 我正在处理一个案例:一个涉及configuration为路由器的Windows Server 2012 R2机器的小型networking,用于无线的RADIUS服务器以及用于一般networking存储的一个小型networking。 networking去:Cisco路由器>服务器>无线AP&计算机 该服务器有3个NIC的: 主板Realtek Gbit控制器 – 连接无线AP>其他无线设备 PCIE Intel ET双端口适配器: 端口1 – 连接到台式电脑 端口2 – 连接到路由器 networking不是一个领域,技术上整个设置工作正常; 主机正在与服务器交谈,服务器监控所有连接,每个人都有互联网,没有延迟或退出问题… 这里的问题是:吞吐量。 该处所有ADSL2 +,在笔记本电脑上进行的速度testing中,直接连接到路由器,达到20Mbps的下载速度(22Mbps的路由器报告线路)。 但服务器最多只能达到15Mbps,所有后续的连接都是通过服务器运行的。 起初我以为这可能是一个驱动程序问题,通常也是如此,没有帮助。 那么我认为它可能是硬件,并尝试更改为不同的网卡路由器连接,仍然没有好处。 总是得到14〜15。 还尝试禁用stream量控制,中断模式,省电function,TCP RWIN自动调整和SMB签名,以及检查卸载和RSS选项,还增加了发送和接收缓冲区…没有一个帮助。 在这个阶段,我有一点想法,似乎有某种带宽控制节制连接,但我不能确定什么,为什么> input和评论很感激^^多<3,谢谢!

95%-ile计算:我可以使用“未使用的带宽”进行外部备份吗?

我的数据中心正在为我计算95百分位数。 由于每天早上有交通高峰,我通常每个月支付90mbit。 这些交通高峰在每天早上100到200位之间,在1到2小时之间。 在剩下的时间内,交通总是低于40mbit。 所以如果我每隔5分钟就能得到一次这个数据,我的数据中心正在检查我的带宽,而在本月底,5%的最大测量数据会下降。 接下来的价值是我必须支付的,对我来说,这是大约90mbits,因为每天早上的交通高峰。 现在我需要发送备份到外部网站。 但交通在这里非常昂贵。 我想知道是否有办法做到这一点,而不会增加我目前的带宽成本。 我正在考虑这个方法: 晚上开始备份,当stream量低,速度限制使用Linux“tc”命令我的备份。 然后我可以每30秒左右调整一次。 我可以随时调整速度并编写一些守护进程,从我的路由器获取当前的上行链路吞吐量。 所以,这个守护进程可以每隔30秒从路由器获取当前的上传吞吐率,并调整备份上传速度,使总带宽不超过80mbits。 并且在stream量已经超过80mbits的时候将其限制在1mbit。 如果我这样正确的话,我的备份不会造成额外的高峰,也不会增加带宽成本。 你有什么意见? 应该这样工作吗?

微服务之间的内部stream量的最佳实践devise是什么?

我有两个PHP写的微服务A&B.端点是a.example.com和b.example.com。 这两种服务都需要公共访问。 另外,服务B在处理的时候对a.example.com做了很多curl请求。 这两种服务都在同一个AWS VPC上运行(在同一个专用networking中)。 我也有一个外部CDN(例如,Akamai)为每个端点。 devise1: Public and Service B make requests to A | V a.example.com | V CDN | V Public Load Balancer | V Web Servers for service A 更高的成本,因为AWS的带宽成本更高 服务A的更多保护,因为它在CDN后面 随着stream量到达云端并返回,服务B响应时间变慢 devise2: Public makes requests to A Service B makes requests to A | | VV a.example.com a-internal.example.com | | […]

了解客户端服务器最大并发连接和TIME_WAIT状态

我知道有很多的问题,也是围绕套接字连接的TIME_WAIT状态的答案,但是不pipe怎样,他们(或者从专家的angular度来看都可以)帮助我理解我的问题(或者find可能的解决scheme)。 我的情况是,我有一台面向互联网的服务器,每秒必须处理数千个连接(它提供了某种types的API)。 我观察到,与服务器的连接通常是可能的,但是time_connect和time_total (使用curl )从前者为0.009到0.526 ,后者为0.134到0.926 。 我还观察到TIME_WAIT状态下的大量连接 – 大约32,000+ 。 所以我的第一个问题是,有多less并发连接(具有默认configuration的Debian发行版)可以在一秒钟,一分钟或一小时内处理服务器。 有没有一些“简单”的公式来计算可能的并发连接的逻辑限制 。 此外,将来我可能不会直接在服务器本身上处理传入的连接,而是可能必须将其转发给代理,获得结果并将其返回。 我甚至想过使用nginx的负载平衡机制(如果需要的话)。 因此,第二个问题是,如果有这样一个代理/负载平衡/转发, 公式必须如何修改? 我最后的问题是,有什么替代scheme可以增加并发连接的数量,例如, 为域添加另一台服务器(这将使并发连接数量增加一倍?), 减less在TIME_WAIT花费的时间(这将有助于和如何), … 非常感谢任何帮助,或任何参考!