Articles of 负载平衡

Apachecaching不能使用负载平衡的Web服务器

我刚刚开始使用haproxy(基于SSL的tcp模式)来负载平衡两个Web服务器之间的stream量。 当我使用单个服务器时,在第一次下载图像之后,apache开始提供“304未修改”标题。 但是现在我使用两台networking服务器,每次连接其他networking服务器时,我的浏览器都会再次下载图像。 两台服务器上的所有映像都具有相同的修改date。

缩放Python CGI脚本

我有一台384kbps ADSL的四核Ubuntu服务器上运行的Apache。 用户通过网页forms上传文件,并通过各种作为CGI脚本运行的Python程序进行处理。 一些脚本是CPU密集型的,几分钟内运行在100%(在一个内核上) 这些将结果通过电子邮件发送给用户,因此HTTP会话不会保持打开状态。 一些脚本需要更大的文件(总共几MB)上传。 目前,使用率非常低,每天点击次数很less,如果有的话,甚至比同时使用这些服务的用户还要less。 我需要在中期为更多的用户提供这些服务。 我怀疑我build立的基础设施不容易扩展。 例如,一个用户请求我允许将多个file upload到CPU密集型程序。 这意味着机器将在较长的时间内忙碌。 如果其他用户也将多个file upload到同一个脚本,机器可能会变得非常忙,时间更长。 我知道讨论式的问题在这里是不允许的,所以我想问一下以下的具体问题: 在提供这些服务时,我需要考虑哪些策略或方法?也就是说,我需要完全重新考虑基础设施吗? 如果我没有做任何修改,每个10人上传10个文件到CPU密集型程序中,例如,CGI脚本创build的所有10个线程是否都能够愉快地(如果缓慢地)运行10个input文件呢? 让服务器以100%的CPU使用率运行一两小时或三小时是否“安全”?

您是否可以更改AWS Elastic Load Balancer运行状况检查,而不会导致实例无法使用?

由于种种原因,我需要更改ELB背后的现场网站的健康检查url。 ELBconfiguration为每30秒进行一次健康检查,健康阈值为2,不健康阈值为2.我需要确保我在没有中断的情况下进行此项更改。 如果我更改了运行状况检查URL,并假设URL检查成功,那么这些实例在负载平衡器上是否保持健康状态,还是会停止运行,直到他们成功进行了2次健康检查(1分钟内)?

1K传入http请求每秒,每个10-50K文件

我试图找出需要支持什么样的服务器设置: 每秒发送1K个http请求 每篇文章将包含一个介于5-50K之间的xml文件(平均25千字节) 即使我用我的专用盒子(通常是10 Mb / s,但可以升级)获得100 Mb / s连接,从我的计算结果来看,大概是12K kb / s,这意味着每秒大约有480个25kb的文件。 所以这意味着我需要大约3台服务器,每个服务器都有100 Mb / s的连接。 运行HAProxy的单个服务器是否可以将请求redirect到其他服务器,或者这意味着我需要另外一个可以处理超过100 Mb / s的代理来将其他服务器代理出去? 如果我的mathclosures,我会很感激你可能有任何更正。

通过Zeus Load Balancer / Stingraystream量pipe理器上的运行状况监控,检查FTP服务器驱动器空间是否可用

我试图找出Zeus Load Balancer(现在更名为Stingray Traffic Manager)是否可以发出通知,如果FTP服务器试图连接并传输文件到已满或接近定义的阈值?

haproxy和持续的连接

我正在使用HAproxy在更多的Web服务器之间进行负载平衡。 这些Web服务器正在使用PHP和会话来保持会话打开。 现在,我认为当用户刷新页面时,会将其发送到其中一个服务器,但是如果他被发送到不同的服务器,他当然会放松会话,不是吗? 问题主要是:如何才能使客户端连接到相同的服务器? 这是我的后端configuration。 backend social_backend mode http option httplog option http-server-close option forceclose no option httpclose balance roundrobin option forwardfor timeout queue 5000 timeout server 86400000 timeout connect 86400000 timeout check 1s server socket1 10.10.10.1:81 weight 1 maxconn 1024 check server socket2 10.10.10.2:81 weight 1 maxconn 1024 check server socket3 10.10.10.3:81 weight 1 […]

为rabbitmqconfigurationHAProxy

我想使用HAProxy作为负载平衡器。 我想把两个rabbitmq服务器放在haproxy后面。 rabbitmq服务器都在EC2的不同实例上。 按照此参考configurationHAProxy服务器。 我的工作,但问题是消息不是发布在roundrobin模式。 消息只在一台服务器上发布。 我的要求是否有不同的configuration? 我在/etc/haproxy/haproxy.cfg中configuration listen rebbitmq *:5672 mode tcp balance roundrobin stats enable option forwardfor option tcpka server web2 46.XX.XX.XXX:5672 check inter 5000 backup server web1 176.XX.XX.XX:5672 check inter 5000 backup listen web-service *:80 mode http balance roundrobin option httpchk HEAD / HTTP/1.0 option httpclose option forwardfor option httpchk OPTIONS /health_check.html […]

如何以最小的开销实现主站?

我有2台机器(Linux机器运行我的CPP应用程序)。 关于应用程序:应用程序从NFQUEUE收集数据包,并根据一些逻辑logging它们。 该应用程序是简单的cpp应用程序运行在无限循环。 该应用需要支持500MbpS的带宽。 机器没有IP。 它们是networking上不可见的监听器(标识一些业务逻辑logging)。 我想拥有最低性能影响的主从。 我希望所有的数据包将被发送到机器A,并在机器上的应用程序停止工作(我需要你的build议,如何最好的信号,应用程序停止工作)数据包应路由到机器B.我不想连接两台机器和解决scheme不能单点故障。 如果设备崩溃数据包仍然通过,我需要绕过一些东西。 有没有办法做到这一点在硬件或在较低的networking层(dosnt想要在第7层做到这一点)。 硬件成本(主/从“开关”限制为1500美元)。

高可用性和安全的FrontEnd到防火墙后面的WebApps

我的问题是关于build议在防火墙后面实施高可用性和安全的FrontEnd到WebApp。 networking的组成部分及其关系如下: 1)2台运行Web应用程序的WebApps服务器(后端),由GUI1和GUI2表示 2)在主备用模式下configuration浮动IP的DMZ中的2台机器LB1和LB2用于冗余。 他们的任务是 作为代理提供额外的安全层(他们对来自GUI的数据包执行NAT) 处理基于cookie检查的stream量(实际上唯一的要求是实现基于cookie的会话持久性,而不是复杂的LB技术) 安全要求: 允许使用GUI的唯一可接受的通信方法(通过FireWall清楚)是通过反向SSH隧道。 传入FrontEnd的stream量通常是https(以及一些http) 问题是:在前端机器LB1和LB2上实现什么样的软件(开源)是实现这些目标的最佳select? 回想一下: SSL终止 (根据需要检查cookie) 基于Cookie的LB 主动/待机模式 我在这个领域没有实际经验,但是LB1和LB2上的NginX(解决SSL和cookies问题)和HearBeat(为了达到期望的冗余属性)应该是可行的。 我知道所提出的体系结构在某种程度上与HAproxy或LVS(configuration为两个冗余实例)类似,但是我需要一个保证同时处理所有描述任务的解决scheme(例如,HAproxy不支持SSL终止)。 欢迎任何意见和build议。 谢谢!

来自单个IP地址的多个请求(MySQL&apache)

在远程服务器上运行Web应用程序时,是否有任何排队问题/限制,我们应该注意到,所有用户都将使用同一个IP地址发出请求? 应用程序将运行在一个pipe理专用服务器上,该服务器运行Redhat和MySQL 5和apache2。