Articles of 负载均衡

为什么要故障转移而不是HA的负载平衡

根据我对故障转移群集的理解,只有一台机器正在工作,这意味着另一台机器处于空闲状态。 那么为什么在Windows Server 2012中使用故障转移群集而不是使用负载均衡方式来获得更好的性能,所有机器都能够一起工作,同时仍然保持高可用性。 在某种情况下,一种情况会更好吗?

我怎样才能为我的网站创build一个“失败的鲸鱼”?

我有一个网站,我们负载均衡几台机器。 负载均衡器(Brocade ServerIron ADX)位于本地networking中。 我知道它有能力configuration一个“备份”IP地址作为“真实”使用,但它需要在本地networking上。 如果由于FW,LB或多服务器故障导致整个环境可能处于脱机状态,我该如何向用户提供“失败鲸鱼”和状态更新消息? 由于DNS无法提供加权的A-Record备份(如SRVlogging),我有什么select? 理想情况下,只要我的网站无法访问,解决scheme应该能够自动进入,并通知我的用户我们的响应团队正在处理这个问题。

HAProxyvalidation的httpchk(健康检查)

我在EC2上使用HAProxy并使用httpchkpipe理节点可用性。 我曾经使用一个伪唯一path作为健康检查路线,以确保只有我的服务器响应健康检查。 今天早些时候,我有一个EC2服务器掉了,在haproxyconfiguration自动重新生成(控制器问题)之前,亚马逊已经把IP重新分配给谁的每一个200的请求(蜜jar?),我的HAProxy主机然后拉回服务器进入轮换,并开始分发我的一些stream量,直到控制器恢复,并从列表中删除IP。 TLDR; 有没有办法将服务器身份validation方法添加到HAProxy的httpchk?

nginx粘性会话/ ip_hash与Socket.io

我将负责在不同的盒子上对两个node.js / Socket.io实例进行负载平衡,nginx运行一个简单的通知服务,并为新客户端提供追溯事件。 我不认为websocket连接types(这将是连接的主要方法)会有任何问题,因为维护的连接会否定会话的需要(除了重新连接,我不会太担心) 。 然而,轮询后备方法会有问题,因为它们依赖于客户端会话,并且在标准的roundrobin负载平衡(在这种情况下)下一轮民意调查将成为新客户的可能性为50%。 不是在两个盒子之间同步会话,而是让负载均衡器使用ip_hash指令或nginx-sticky-module来做一些半智能的路由。 ip_hash好像可以做这个工作,但是我可以看到它在移动客户端有潜在的问题,他们在3G上交换IP地址,或者在移动networking和WiFi之间改变IP地址,从而改变IP地址。 我有几个与此相关的问题。 如果你可以回答那个很棒的话 ip_hash是否有任何forms的寿命,或者IP地址是否永久分配给后端实例? 任何人都可以分享与Socket.io和/或移动客户端使用nginx负载平衡的经验/build议吗?

多个Nginx服务器是否使用ip_hash指令将相同的IP地址与相同的后端进行负载均衡?

我有两个单独的Nginx机器。 该域使用循环法DNS,并且有两个Alogging,两个前端Nginx服务器各有一个logging。 两个Nginx服务器都使用ip_hash指令和代理请求到相同的后端服务器。 到第一个Nginx服务器的IP地址是否总会被路由到与其他Nginx服务器的IP地址相同的后端服务器? 这可能有帮助: nginx使用ip_hash粘性会话的IP是什么?

Tomcat中的负载平衡

我想在tomcat 6.0中实现负载平衡,以便我们可以创build一个以上的tomcat实例,当任何实例closures时,其他实例将运行我们的应用程序。 所以即使有大量的并发请求时,我们的应用也永远不会停止。 但我不知道要实施它。 请给你宝贵的build议。

重新启动Haproxy优雅

根据各种博客,可以使用以下命令正常重启HAproxy: sudo haproxy -f /etc/haproxy/haproxy.cfg -p /var/run/haproxy.pid -sf $(cat /var/run/haproxy.pid) 为了validation这一点,我build立了一个连续发送消息给haproxy的apache脚本脚本。 理想情况下,每当我重新启动我的服务器的脚本不应该有一个影响的Apache的一个执行。 但是,似乎每当Haproxy重新启动Apache脚本脚本终止和负载平衡器的连接丢失。 这里是我的HaProxyconfiguration文件的细节: global nbproc 4 log 127.0.0.1 local0 log 127.0.0.1 local1 notice #log loghost local0 info maxconn 4096 #chroot /usr/share/haproxy user haproxy group haproxy daemon pidfile /var/run/haproxy.pid stats socket /home/ubuntu/haproxy.sock #debug #quiet defaults log global mode http option httplog option dontlognull retries 3 […]

多个TFS“主机”在一个简单的iis负载器后面

我得到了一个简单的安装方式来为我的网站(目前)分配3个IIS服务器和应用程序请求路由的负载。 我想知道,TFS处理安装在两个后端,或者可能会导致一些问题,例如。 从视觉工作室提交变更集? 该计划是有一个“外部url”tfs.foo.local指向第一个iis,将请求50/50转发到后端iis服务器。

使用F5 Big-IP仅使用一个接口进行负载平衡

我负责configuration我们的F5 Big-IP LTM。 它正在运行9.4.8。 我已经读了一些文档,我有点困惑。 它指定有两个默认的VLAN:内部和外部。 问题是我想要负载平衡的服务器在我们的DMZ中,这也是负载平衡器的地方。 在运行configuration向导时,它不会让我在内部接口上指定DMZnetworking,因为它已经在另一个VLAN(外部接口)上定义了。 在像我这样的设置中,是否需要由向导定义的internal和external VLAN? 由于负载平衡器与平衡的服务器在同一个子网上,我可以只使用一个接口吗?

用HAProxy分组networking会话

我想用HAProxy来平衡Web请求。 问题是,我希望特定的用户组总是去同一台服务器。 (这是一个多人游戏系统,同一组中的用户需要在同一台服务器上)。 只要具有相同组ID的用户在同一台​​服务器上,用户就可以访问任何服务器。 服务器甚至可以改变(例如,如果服务器停机),但是该组的所有用户必须切换到新的服务器。 应用服务器将用cookie标识用户的分组。 作为一个具体的例子,假设我的应用程序有一个编号为1..10000的cookie GROUP_ID。 可能有3个不同的GROUP_ID = 1的用户,3个不同的GROUP_ID = 2的用户等。假设我在服务器上设置了负载均衡:app1,app2,app3。 我想看到的是类似的东西: 所有GROUP_ID = 1个用户都转到app1 所有GROUP_ID = 2个用户都转到app2 所有GROUP_ID = 3个用户都转到app3 所有GROUP_ID = 4个用户都转到app1 所有GROUP_ID = 5个用户都转到app2 等等 如果服务器app1变得没有反应,那么我想看到app1用户在app2和app3之间重新分配。 (如果所有的团体都重新洗牌,那就没问题了)。 来自特定组的所有用户仍应位于通用服务器上。 显然,网站的初始请求不会有cookie,但一旦用户authentication,他们将被分配cookie。 HAProxy是否支持这种自定义负载平衡?