Articles of 负载均衡

haproxy ubuntu 10.04.2

我想在我的ubuntu服务器上安装haproxy从10.04购买haproxy版本回购是1.3.x版本。 我想要最新的版本1.4.13,因为它有改进和错误修正。 我做了什么:1.从官方回购安装haproxy:apt-get install haproxy。 2.从网站下载源文件,并进行编译。 把新的haproxy换成旧的。 到目前为止,它的工作,但我好像我应该知道的东西? 为什么我做了以下? 因为apt-get会创build一个init.d启动脚本,/ etc / haproxy.cfg文件,以及用户和组。

基本的EC2负载平衡概念

我正在创build一个我希望偶尔会收到DDoS攻击的网站。 我在Amazon EC2上创build了两个EBS AMI。 一个用于MySQL数据库的AMI和一个用于Web主机的AMI。 我已经添加了一个弹性IP的networking主机服务器,并已附加一个DNSlogging通过路由53,所以我可以访问我的域名。 如果我要创build一个负载均衡器,是否必须将该网站的DNSlogging更改为负载均衡器的IP地址? 然后简单地启动负载均衡器下的web托pipeami的多个实例,如DDoS所要求的那样? 这个想法是否正确?

是否有可能build立多个负载均衡器与Apache?

我已经决定使用Apache mod_jk作为前端负载均衡器来集成我的J2EE Web应用程序,将请求redirect到一堆tomcat6实例。 像这样的东西。 但是有一个问题让我对这个架构感到怀疑。 单一负载平衡器首先处理这个大型应用程序的所有请求,这也是一个瓶颈和单点故障。 对? 如果是这样的话,有没有办法像增加负载平衡器的数量来克服这个问题呢? 顺便说一句,如果有人知道在现实世界中实现的任何J2EE集群架构(使用Apache和tomcat或其他),我的大脑中有很多未使用的空间来填充这些信息。 提前致谢。

BigIP负载均衡Rails 3 / Apache应用程序没有正确处理select性SSL?

所以这里是设置。 我有一个Rails 3应用程序部署到两个服务器,都运行Apache2,都具有相同的VirtualHostconfiguration,都在Passenger上运行。 Rails应用程序中有几条路由需要在SSL上完成请求,所以我已经按照需要使用:protocol => 'https定义了这些路由。 这两台服务器是BigIP负载平衡器上负载均衡池的一部分,一个configuration文件设置为处理端口80stream量,另一个负责处理端口443stream量。 我们已经购买了一个authentication,我们已经将其加载到BigIP框中,并为分配给:443configuration文件的authentication设置了configuration文件。 我的Apacheconfiguration在每个服务器上相同地定义了ServerName , DocumentRoot , SetEnv (用于我的Rails环境)以及在<VirtualHost *:80 *:443>声明中的所有jazz(注意,在用这些文件去除*:443一点点变化绝对没有)。 那里没有什么特别的。 当浏览到80端口的这个网站,stream量通过就好,它击中了Rails应用程序。 当浏览到需要HTTPS的login页面时,浏览器就会坐在那里尝试联系页面。 最终我的浏览器给我一个服务器意外地丢失了连接错误。 我的问题是:BigIP如何将SSLstream量发送到其池中的服务器,以及Apache如何识别? 我甚至没有得到我的Apache日志中的条目,即使stream量达到两个后端服务器。 有什么我需要修改一个Passengerconfiguration的地方,以允许这种stream量? 如果有更多信息需要比我已经发布,让我知道,我会附加到这个问题。 看起来我比我想象的更加绿色。 也; 因为我觉得这个东西真的有点愚蠢,有什么好的资源可以帮助我了解Web服务器如何处理SSL请求?

裸露域名和DNS负载平衡的问题?

可以使用裸露的域作为服务器地址(即使用example.com而不是www.example.com )以某种方式使基于DNS的负载平衡更难? 负载平衡示例: 循环法DNS负载平衡 。 Split Horizo​​n DNS Server ,即根据客户端地址给出不同的响应(IP地址)。 亚马逊Route 53的计划function: “未来,我们计划增加额外的集成function,例如将客户路由到最近的EC2地区。” 背景:有时候,当人们争辩说,应该在服务器地址中包含www ,而不是使用裸露的域名作为服务器地址时,他们会提到有关负载平衡和裸露域的问题。 但是他们似乎没有具体说明那些问题。

亚马逊弹性负载平衡器的工作

我有一个Amazon ELB,后面有3个EC2实例分布在3个区域。 以下是每个实例上访问日志的摘录: 一审(A区): 10.210.214.231 – – [17/Sep/2011:15:40:16 -0400] "GET /healthcheck.html HTTP/1.1" 200 194 "-" "ELB-HealthChecker/1.0" 10.223.33.43 – – [17/Sep/2011:15:40:16 -0400] "GET /healthcheck.html HTTP/1.1" 200 194 "-" "ELB-HealthChecker/1.0" 10.210.214.231 – – [17/Sep/2011:15:40:17 -0400] "GET /healthcheck.html HTTP/1.1" 200 194 "-" "ELB-HealthChecker/1.0" 10.223.33.43 – – [17/Sep/2011:15:40:17 -0400] "GET /healthcheck.html HTTP/1.1" 200 194 "-" "ELB-HealthChecker/1.0" 二区(C区): 10.116.114.11 – […]

负载平衡服务器

我希望你不介意问我这个问题,因为我找不到明确的答案。 我说没有问题。 我只是想研究一些我自己的研究。 我想知道如何负载平衡的工作。 我知道负载平衡器接受请求,然后处理所有不同的连接请求,然后连接到一个没有失败或接近失败的服务器。 我感兴趣的是,所有的服务器都必须被镜像才能工作? 举例来说,Facebook将在其服务器上存储最可能的peta-bytes的信息。 如果服务器上的空间不足,他们将如何实现更多的空间? 如果他们添加了一个新的服务器,他们希望平衡负载,而不是必须镜像以及它将变满。 我知道这可能不是最好的例子,但它是除Google之外唯一一家拥有如此多数据的公司,对于您可以在服务器上存储多less数据,他们。 我有另一个查询是有负载平衡服务器使用的数量的限制? 我知道一些平衡器可以接受7000个并发连接,所以如果我安装了3个负载平衡服务器,理论上它能够处理21000个并发连接吗? 我希望这是有道理的。 我是新来的服务器游戏。

负载平衡定期挂起(但后端工作正常),如计划

有Debian Squeeze服务器: 1)Load Balancer – Hyproxy 1.4.18,16个cpu核心,5-10 GB RAM(这是云服务) 2)4个Apache后端(10 GB RAM,16个cpu内核) 当我们开始haproxy时,网站运行良好约2分钟,然后约30秒钟挂起。 (此时直接访问后台运行良好,没有缓慢的数据库查询或任何后端问题)在这种情况重复之后。 有趣的观察:我们试图使用nginx作为平衡器,我们得到了同样的行为。 当haproxy(nginx)挂起时,没有任何cpu或ram高负载。 什么可能是这种行为的原因? 谢谢!

修改HAPROXY的统计页面

我正在使用HAProxy进行负载平衡,并希望使某些人可以查看统计信息页面。 我已经configuration这个用户必须首先login到网站的点,然后在该网站的状态页下将加载一个HAProxy状态的iframe。 但是,我想要删除页面的顶部,只是有服务器的统计信息。 这甚至有可能吗?

改善高stream量网站的虚拟主机

我们的网站目前运行在Intel Xeon 2.3GHz,大约5或6年,8GB。 该网站目前每天约有2000名访客。 在Windows 2008 R2networking版上运行。 数据库托pipe在另一台服务器上。 有时候,网站会变得很慢,同时有很多会员。 所以我想知道什么是提高网站速度的最佳方法。 到目前为止,这是我做的。 所有的静态文件(图像,CSS,video)托pipe在亚马逊S3帐户。 我们目前正在运行6mbps的T1(4个T1有界) 我正计划在Amazon EC2上获得一个实例。 我的问题是我可以从办公室和Amazon EC2实例的服务器设置负载平衡吗? 由于Amazon允许您在需要时启动和停止实例,所以我只是在网站变得非常忙碌时才使用它。