Articles of 负载均衡

对于不断增长的网站,推荐使用什么GlusterFSconfiguration?

我有一个网站,平均每天点击量达到5000万次,在接下来的3个月内,每天的点击量将超过1亿次。 我们正在尝试使用GlusterFS v 3.0.0(截至2010年1月17日) 目前,我们刚刚升级到负载平衡器环境,有3台物理主机和6台Xen-Server 5.5u1虚拟机(每台主机上有2台虚拟机)为网页stream量提供服务。 每台机器有6个Raid-6本地存储驱动器(7200RPM-SATA)。 我们来自的旧机器有一个镜像SAS 10K驱动器。 我们还build立了GlusterFS目前有3块砖,每个主机上有一块砖,它为6个虚拟机作为客户端提供服务。 在testing中,一切似乎都很好。 但是当我们投入生产的时候,似乎没有足够的I / O来提供超过15M的点击量。 几个星期前,我们的旧服务器能够处理stream量,最高可达20M。 有没有推荐的configuration这样的应用程序,或者要知道的事情是不明显的,他们的文档在gluster.org为我们的大小的网站?

HA代理将不会负载平衡我的networking请求。 我做错了什么?

我终于把HA Proxy设置成了我想要的方式。 但是,它不负载平衡它收到的networking请求。 所有请求正在转发到群集中的第一个服务器。 我将在下面粘贴我的configuration – 如果有人能看到我可能出错的地方,我会很感激。 这是我第一次尝试在* nix环境中configurationWeb服务器。 首先,我有与apache集群中的第一个服务器在同一主机上运行的HA Proxy。 我们正在将这些服务器转移到虚拟机上,并且它们将拥有不同的虚拟主机,但是我现在想让这个虚拟主机运行。 两个Web服务器都在接收健康状况检查,并正确回报。 haproxy?stats页面正确报告上下的服务器。 我已经通过改变被检查文件的名字来testing这个。 我还没有把任何负载到这些服务器呢。 我刚刚打开了几个选项卡上的url(隐私浏览),也有几个同事点击了url。 所有的stream量都转到WEB1。 我平衡​​不正确? global maxconn 10000 nbproc 8 pidfile /var/run/haproxy.pid log 127.0.0.1 local0 debug daemon defaults log global mode http retries 3 option redispatch maxconn 5000 contimeout 5000 clitimeout 50000 srvtimeout 50000 listen WEBHAEXT :80,:8443 mode http cookie sessionbalance […]

nginx作为负载均衡器到nginx的webservers

我试图用nginxbuild立一个基于软件的负载平衡器。 在安装心跳和心脏起搏器之前,我已经创build了一个CentOS虚拟机,并在其上安装了nginx(lb-01),它将作为我的负载平衡器。 我还创build了另一个CentOS虚拟机(web-01)作为我的networking服务器。 以上是在LB级别或Web级别添加更多资源之前启动并运行的最简单方法。 在负载平衡器上我有nginx设置为: user nginx nginx; worker_processes 4; worker_rlimit_nofile 16384; pid /var/run/nginx.pid; events { worker_connections 4096; } http { include mime.types; access_log /var/log/nginx/access.log main; error_log /var/log/nginx/error.log error; sendfile on; ignore_invalid_headers on; reset_timedout_connection on; tcp_nopush on; tcp_nodelay on; keepalive_timeout 60; keepalive_requests 500; send_timeout 30; client_body_buffer_size 256k; large_client_header_buffers 16 8k; client_body_timeout 30; client_max_body_size 10m; client_header_timeout […]

负载平衡或高可用性tomcat与networking交换机?

我想知道是否有可能使用networking交换机负载均衡并创build高可用性环境? 或者我需要一个真正的Apache服务器在Tomcat服务器之前?

当所有后端服务器在Apache后面运行HAProxy时,获得502而不是503

我正在testing运行HAProxy作为Apache 2.2后面的专用负载均衡器,replace我们当前使用Apache负载均衡器的configuration。 在我们目前的Apache中,如果所有的后端(原始)服务器都closures了,Apache将会提供503服务不可用的消息。 与HAProxy我得到一个502坏的网关响应。 我在Apache中使用简单的反向代理重写规则 RewriteRule ^/(.*) http://127.0.0.1:8000/$1 [last,proxy] 在HAProxy我有以下(运行在默认的TCP模式) defaults log global option tcp-smart-accept timeout connect 7s timeout client 60s timeout queue 120s timeout server 60s listen my_server 127.0.0.1:8000 balance leastconn server backend1 127.0.0.1:8001 check observe layer4 maxconn 2 server backend1 127.0.0.1:8001 check observe layer4 maxconn 2 当后端服务器closures时,直接testing连接到负载平衡器: [root@dev ~]# wget http://127.0.0.1:8000/ test.html –2012-05-28 […]

全球地理负载均衡的成本效益选项?

我们运营一个网站,每月接待约100万访问者,每月访问量达到200万页,其中来自印度的stream量约占40%,来自美国的stream量约占40%,而来自世界其他地方的stream量则达到平衡。 我们的服务器在美国,我们正考虑在印度或新加坡定位一台服务器,以减less延迟,并改善印度访客的页面加载时间。 我们希望为所有访问者保留一个单一的域名。 所以我们正在研究地理负载平衡解决scheme。 但是,如果我们使用我们提供商提供的基于硬件的解决scheme,那么这样做的成本似乎高得惊人。 如果存在的话,我们一直在寻找更具成本效益的select。

应用F5 BIG_IP持续性iRules,但不影响所选成员

我有一个虚拟服务器。 我有2个iRules(见下文)作为资源分配给它。 从服务器日志看来,规则正在运行,并select正确的成员 从会话池中继续会话(根据我的日志消息我可以判断出来),但请求最终会被导向到别的地方。 以下是这两个规则的样子: when HTTP_RESPONSE { set sessionId [HTTP::header X-SessionId] if {$sessionId ne ""} { persist add uie $sessionId 3600 log local0.debug "Session persisted: <$sessionId> to <[persist lookup uie $sessionId]>" } } when HTTP_REQUEST { set sessionId [findstr [HTTP::path] "/session/" 9 /] if {$sessionId ne ""} { persist uie $sessionId set persistValue [persist […]

负载平衡MongoDB

我有一个用java写的应用程序,我准备开始扩展生产。 据我了解,我不应该使用负载平衡器与MongoDB路由器实例,因为它可能会导致问题。 但是,我知道在某些时候我需要多个Mongo路由器。 什么是最好的方式去做这件事? 我能想到的唯一方法是运行Tomcat服务器的多个副本,使用负载平衡器将stream量路由到其中一个Tomcat,并且将每个Tomcat预configuration为使用特定的MongoDB路由器。 但是,我不认为这将工作得很好,就好像一个mongodb路由器出现故障,然后可能会出现错误,如果一个tomcat崩溃,那么我正在浪费一个mongodb路由器。

一个用于负载平衡亚马逊实例的SSL证书

正如标题所说,我想在亚马逊AWS中有多个实例的一个SSL证书。 多个实例通过负载平衡器连接到互联网。 要制作一个SSL证书并将其与负载均衡器一起使用,我创build了以下文章: http : //docs.aws.amazon.com/ElasticLoadBalancing/latest/DeveloperGuide/ssl-server-cert.html 。 我阅读文章,如果我理解正确的用户连接到持有证书的负载平衡器。 然后负载均衡器解密stream量并将其发送到相应的实例。 纠正我,如果我错了! 我不记得我读过的那个网站,但它是说永远不能依靠负载平衡器的IP地址(因为它可能会有所不同)。 如果那是真的,那么证书如何能够在负载均衡器上运行? SSL证书也取决于主机的IP地址,对(主机名除外)? 再次,如果我错了,纠正我! 所以要么我没有以正确的方式回忆最后一部分,要么亚马逊在这里做了一些非常有趣的事情? 任何帮助表示赞赏! PS我不问如何设置负载平衡器或如何在负载平衡器上安装SSL证书。

在许多网站前使用负载平衡器

是否有任何理由不为了pipe理目的而在许多小型网站前使用软件负载平衡器/代理。 我为一家网页devise机构工作,我们可能为客户提供30-40个中小型网站。 我的想法是使用一个健壮的虚拟服务器并指向所有域名,然后软件负载均衡器会将请求路由到后台的许多(15+)虚拟服务器之一。 我能看到的好处是: 易于升级和移动网站到不同的服务器 在多个服务器之间传播繁忙网站的可能性 轻松取下服务器进行维护,同时向访客显示一个好消息 可能有一个每个网站的退后一页(HTML文件标识和每个客户端的联系方式,当他们的网站是404错误) 缺点是: 单点故障是负载平衡器 复杂 这是一个好主意还是一个可怕的想法?