Articles of 负载均衡

Apache MPM工作者连接池大小?

工作者连接池大小的影响是什么: worker.app605.connection_pool_size=30 到目前为止,我读过三种不同的解释: 限制与工作者的整体连接 (所以30个连接,不pipeApache线程等)。 并发/并行请求限制到工作(所以请求有限,但不是连接)。 这是每个线程的值,所以这个值被乘以(由Apache的线程设置)。 有趣的是,Tomcat的文档build议不要使用这个属性: 最大连接池大小可以使用属性connection_pool_size进行configuration。 我们通常不推荐将这个属性与Apache HTTP Server结合使用。 对于Apache,我们会自动检测每个进程的线程数,并将最大池大小设置为此值。 来源: https : //tomcat.apache.org/connectors-doc/common_howto/timeouts.html 我正确地认为我的MPMconfiguration的默认值会使这120(匹配每个子设置的线程)? 我有一个负载均衡的Apache安装程序(两个HTTPD在F5后面),每个应用程序服务器被configuration为处理大约60个并发连接。 我的目标是每个应用服务器不超过30个并发连接,从每个Apache(总共限制到60个)。 这是我的MPM conf,供参考: <IfModule mpm_worker_module> ThreadLimit 120 ServerLimit 10 StartServers 3 MinSpareThreads 200 MaxSpareThreads 400 MaxRequestWorkers 1200 ThreadsPerChild 120 MaxConnectionsPerChild 0 </IfModule>

负载均衡中的失败处理

假设我有两个Tomcat实例使用BIGIP或其他类似的解决scheme进行负载平衡。 如果一旦Tomcat实例在服务请求less的时候发生故障,那么这些请求会发生什么? 用户在浏览器中收到错误?

在Apache / mod_jk / Tomcat负载平衡环境中手动切换服务器

我们的设置是有两个使用Apache1.3和mod_jk的前端WWW服务器和两个运行Tomcat的应用程序服务器。 前端服务器使用sticky_sessions透明地负载均衡。 但是,偶尔我们需要检查一个特定的后端服务器或其他,以解决同步问题(等)。 目前,我们唯一的解决scheme是编辑“sticky session”cookie(即更改JSESSIONID=1L0NGS3SS10NSTR1NG.server1的server1 ),但似乎不一致,需要进行一些低级cookie编辑。 有没有更好的解决scheme来“覆盖”这里的负载均衡?

apache LoadBalancerconfiguration文件

我想为LoadBalancer成员指定lbfactor并保存它。 如何才能做到这一点? 目前在httpd.conf : <Proxy balancer://xxxx> BalancerMember ajp://localhost:8009/xxxx BalancerMember ajp://yyyyy:8009/xxxx </Proxy>

负载均衡Tomcat webapp的替代scheme?

我们希望为我们目前使用的Tomcat webapp启用某种forms的负载平衡。 不幸的是,我几乎不知道Tomcat的负载平衡,集群等等。 任何人都可以共享资源,涵盖不同的select,给一些方便的指针(也许某些解决scheme在某些types的环境中工作更好?)或只是一些提示解决scheme尝试? 我们目前正在运行Tomcat 5.5,如果这在function上有所不同,但是升级到6时不会遇到重大障碍。

有关群集pipe理的任何build议?

我需要关于集群pipe理的一些build议:工具列表(如心跳,起搏器,openqrm),pipe理策略。

什么是为ASP.NET应用程序设置IIS7 Webfarm的最佳方式

我们正在设置一个IIS7的WebFarm …我们有2个IIS7 / Windows Server 2008的框,将充当负载平衡的Web服务器。 如何设置IIS / Windows Server 2008来处理平衡两个服务器之间的请求? 什么是同步部署的最佳方式,所以我们只需要部署到一个地方。 我们可以让他们同步他们的结构,还是我们必须使用NAS /networking共享?

去哪里找一个具有自动缩放function的TCP软件负载平衡器?

我们有一个在AWS EC2实例上运行的交互式Flash应用程序。 一个实例可以处理100到200个用户。 我们预计时代将会出现大幅增长和猛虎效应。 为了做好准备而不是过度准备,我们需要一个自动缩放的负载均衡解决scheme。 我们尝试了Elastic Load Balancer,但它似乎不适用于我们的应用程序。 我们遇到很多和早期的TCP断开连接。 现在最好的解决scheme似乎是haproxy,但它不符合我们的自动缩放要求。 我们喜欢有更多的可编程/脚本。 我们需要经常添加或删除后端服务器。 我想知道是否有其他的,也许更好的解决scheme。

Nginx负载均衡与会话

我已经看到,使用nginx设置负载平衡是非常容易的 ,我想试试看。 我唯一关心的是会话:我怎样才能利用nginx将来自客户端的所有后续呼叫路由到同一台服务器,以实现会话粘性? 谢谢

负载均衡w / out一个“前台服务器”

我不太了解复杂的服务器设置(这就是为什么我问这个问题)。 我的理解是,通常你有一个“负载平衡”的服务器,发送请求到其他后端服务器。 所有请求是否通过“负载均衡”服务器回来? 有没有办法改变这个? 我在问,因为我的一些testing显示带宽上限可能是瓶颈。 如果我有两个“前”服务器,那么我会增加一倍的带宽。 是对的吗?