Articles of 负载均衡

如何防止负载均衡器脱机?

我打算为web项目设置一个负载均衡器,但是我的脑海中还存在一个主要问题: 一个典型的负载均衡器将是:(由nginx上游提供)服务器#1接受所有的请求,并将它们转发到服务器#2 – 服务器#n,但是当服务器#1在如此重的负载下,他不能正确处理请求,下降或放缓真的很疯狂? 你怎么能阻止呢? 我可以想到也许基于DNS的负载平衡或什么的。 我不需要会话持久性或别的东西。 这只是为每个请求validation自己的API。 你有什么想法吗? 感谢您的反馈意见

使用Jboss EAP进行集群和使用Haproxy进行负载平衡

我正在使用HAProxy进行负载均衡,并将JBoss EAP用作应用程序服务器。 Haproxy服务器configuration为将传入请求路由到应用程序服务器。 如何将Jboss EAP和HAproxy集成到集群和负载平衡,以便在服务器上复制会话?

AWS ELB奇怪的502响应

我的网站今天下午突然失败,以502回应每一个请求。 我在ELB后面设置了3个后端实例,每个都安装了Nginx。 起初,我怀疑后端实例有问题。 但根据ELB控制台中的状态描述,所有的实例都在服务中。 然后,我login到其中一个实例来查看Nginx和应用程序(与uwsgi )日志。 我发现那里实际上没有5xx错误,我可以看到请求以200 OK响应。 根据故障排除手册 ,502的原因可能是 来自实例的格式错误的响应或负载平衡器可能存在的问题。 我没有升级Nginx或uwsgi,所以我不认为我的后端已经返回了ELB无法理解的错误响应。 还有什么可能导致这样的情况? BTW: 我已经通过回滚到我的应用程序的旧版本而停止了502 ,即使重新部署了原始版本,它也继续工作,所以我想这是重新启动的工作。

与Apache负载平衡器的Socket.io 1.0粘滞会话

我一直在使用Apache作为我的Socket.io服务器的负载平衡器。 我经历了以下的话题,现在一切似乎都没有问题。 为Socket.IO 1.0configurationApache 2.4 mod_proxy_wstunnel 我使用以下configurationconfiguration了Apache,现在连接正在升级到WebSocket。 但是当我尝试为以下configuration启用粘性会话时,似乎有时候apache将路由升级请求路由到路由#2,同时在路由#1上build立轮询。 发生这种情况时,升级失败,websocket未连接。 因为我们必须使用平衡器(一个用于http,一个用于ws),所以我想也许http路由#1设置的cookie不能被ws路由访问,这就是为什么会话在http和ws之间不粘连的原因。 我使用的是Apache 2.4.9 <VirtualHost *:8080> Header add Set-Cookie "ROUTEID=.%{BALANCER_WORKER_ROUTE}e; path=/" env=BALANCER_ROUTE_CHANGED ProxyRequests off ServerName localhost <Proxy balancer://http-localhost/> BalancerMember http://localhost:8081 route=1 keepalive=On smax=1 connectiontimeout=10 retry=600 timeout=900 ttl=900 BalancerMember http://localhost:8082 route=2 keepalive=On smax=1 connectiontimeout=10 retry=600 timeout=900 ttl=900 ProxySet lbmethod=byrequests ProxySet stickysession=ROUTEID </Proxy> <Proxy balancer://ws-localhost/> BalancerMember ws://localhost:8081 route=1 keepalive=On […]

当通过ARR运行时,大文件的POST超时

当通过ARR POST一个大文件时,请求在120秒后超时。 客户端收到错误代码502 Bad Gateway 。 我已经configurationweb farm的“代理超时”为600秒。 我还configuration了Default Web Site的Connection time-out为600秒。 ARR服务器已经重新启动。 以下是来自ARR服务器上的日志文件: 2015-05-07 13:25:16 192.168.87.155 POST /Redacted/Import/RedactedImport20150507_152313.csv X-ARR-CACHE-HIT=0&X-ARR-LOG-ID=253daa4a-8372-405a-8efd-21ebbc38353f 80 – 192.168.87.198 – redacted.local 502 3 64 120436 从applicationHost.config: <webFarm name="redacted.local" enabled="true"> <server address="redacted.local" enabled="true" /> <applicationRequestRouting> <healthCheck url="http://redacted.local/redacted.svc" liveTrafficFailureCodes="400-" /> <protocol timeout="00:10:00" /> </applicationRequestRouting> </webFarm> 背景: 我正在构build一个使用ARR的PoC,以实现我们的后端服务(主要是WCF(基本HTTP)和REST)的负载均衡和高可用性。 其中一项(REST)服务用于每天从批处理作业中接收大量(ish)文件。 REST服务在文件处理完成之前(可能需要5分钟)才会返回,因为客户端应用程序需要知道处理完成的时间(接下来的更多步骤取决于第一个步骤)。

错误499:Varnish正在如何负载均衡Nginx Web服务器

我创build了一个解决scheme来托pipeAWS上具有高stream量(> 500个用户)的magento商店。 在access.log中出现HTTP 499错误通常是Varnish。 发生这种情况时,有这种访问权限的用户将面临503。 我不知道什么可能会导致错误499,但我明白它的意义。 我改变了几个参数,但没有成功。 任何想法? 我的/etc/varnish/default.vcl: backend webserver01 { .host = "172.31.30.167"; .port = "80"; .connect_timeout = 10s; .first_byte_timeout = 90s; # .probe = { # .url = "/heartbeat/index.php"; # .timeout = 30 s; # .interval = 15 s; # .window = 6; # .threshold = 3; # } } backend webserver02 […]

负载平衡和HA与SolrCloud?

现在,我已经在一台服务器上运行了solr 3.x的LAMP应用程序。 现在我正在迁移由于负载沉重的设置与两台专用的机器,所有的服务都通过2 keepalived HAProxy服务器负载均衡。 唯一剩下的就是Solr,我很难理解这个概念。 我知道至less有3个pipe理集群的Zookeepers。 但是,要查询的url是什么? 在使用HAProxy的HA设置中,我有一个VIP,系统将注意stream量被分割,并且没有SPOF,但SolrCloud又如何? 如果我使用10.0.0.2:8984,并且该服务器closures,查询将不会被回答。 有人可以请一些url查询什么? 目前我有一个单机上的cronjob通过本地主机来实现deltaupdates:…和PHP也通过本地主机进行查询:…这将如何改变? 提前感谢您的帮助。

负载均衡环境中的NTLM

我们有一个Netscaler VPX负载平衡3个Windows服务器上的3个IIS服务的HTTP请求。 身份validation设置为“Windows身份validation”,但由于我们的环境没有为Kerberos设置身份validation回落到使用NTLM。 由于负载平衡器上的会话设置为不持久,所以每个新的HTTP请求都可能会碰到前一个不同的前端。 在一些Wireshark数据包嗅探之后,我可以看到HTTPstream量中有很多401个挑战,所以我的最终目标是减less401个挑战的数量。 我必须承认,我正试图find关于NTLM如何工作的更多信息,但只是想我会问,如果有人能指出我正确的方向。

Haproxy Nginx / Naxsi到Web服务器不工作

我有一个haproxy / nginx / naxsi设置负载平衡和安全性。 stream量应该进入haproxy然后到nginx / nasxi然后最终到达web服务器,如果他们通过了WAF。 我们也有一个不同的IP地址在前面,然后我们在后面做。 我做错了什么,它不会stream经nginx? 如果我绕过nginx / naxsi,它只会按照预期工作,所以在经过nginx时我只会得到503错误。 Inet – > Haproxy .5.3:80 – > .5.3:81 Nginx / Naxsi .6.3:81 – > .6.x:80 Web服务器 frontend ft_waf bind 10.0.5.15:80 name http mode http log global option httplog timeout client 25s maxconn 10000 # DDOS protection # Use General Purpose Couter (gpc) […]

只有1个NIC的机器上的LVS DNS负载平衡

首先让我澄清,我只是一个软件开发人员而不是pipe理员,因此我有一些关于networkingconfiguration以及这些types的设置的知识(假设对这些概念有一个基本的了解),但是我并不是高手,所以如果这听起来很愚蠢或不合理的话,请耐心等待。 我正在尝试在RH7上configurationkeepalived,以便在已经设置绑定的两台服务器之间平衡NDS请求。 到目前为止我读过的指南中, 他们似乎使用2个NIC ,但我只有一个可用。 参考文献: LVS-NAT-KEEPALIVED-HOWTO Keepalived手册页 LVS迷你如何PDF 这篇文章似乎build议将DNS主站的真实IPconfiguration为虚拟服务器,将平衡器IPconfiguration为真正的服务器,但是我认为这不是正确的…或者我误解或误读了它? HW: 我有3台机器在同一个networking上configuration如下: 1台带1个网卡的机器充当负载均衡器,真实IP为192.168.0.1 1台带1个网卡作为主绑定服务器的机器,真实IP为192.168.0.2 1台带1个网卡作为主绑定服务器的机器,真实IP为192.168.0.3 此外转发已启用net.ipv4.ip_forward = 1 Keepalivedconfiguration: ! This is a comment ! Configuration File for keepalived global_defs { ! this is who emails will go to on alerts notification_email { [email protected] [email protected] ! add a few more email addresses here if you […]