我正在使用apache2.4.6和tomcat8来实现负载平衡解决scheme。 我想知道是否apache平衡器将请求redirect到另一个平衡器成员,如果它从一个服务器获取超时错误。 例如,apache发送一个请求到tomcat1,但tomcat1不能在10秒内响应,将apache重新发送这个请求到tomcat2? 以下是我的configuration为Apache代理平衡器。 <Proxy balancer://myCluster timeout=10 failontimeout=on> BalancerMember http://server1:8080 route=tomcat1 loadfactor=1 timeout=10 retry=30 BalancerMember http://server2:8080 route=tomcat2 loadfactor=1 timeout=10 retry=30 ProxySet lbmethod=byrequests # ProxySet stickysession=JSESSIONID Order Deny,Allow Deny from none Allow from all </Proxy>
我有一个在核心i74xx上运行的三个虚拟机的设置。 这些机器与HAProxy组成一个LAMP集群来执行负载平衡。 运行多个负载testing后,我发现一旦将Apache实例与HAProxy运行在同一个节点上进入维护模式,吞吐量就会翻倍 – 因此,为HAProxy提供更多的CPU。 现在的问题是,两个HAProxy实例都运行在keepalived故障切换模式下。 人们永远不知道哪个节点运行HAProxy。 架构本身如下所示: 我不想增加更多的机器到集群,而是更有效地传播服务。 有没有办法用HAProxy自动pipe理Apache的状态?
我configuration了一个AWS负载平衡器。 它正在寻找HTTP,但是当我尝试通过HTTPS时,我得到一个504网关超时错误。 我尝试了AWS的帮助页面上的所有build议(增加空闲超时),但没有运气。 任何想法,为什么它不能通过HTTPS,但仍然通过HTTP工作? 实例和负载平衡器安全组都启用了HTTP和HTTPS 负载均衡器具有HTTP和HTTPS侦听器(注意,LB不终止SSL证书,在前端和后端端口上有443个) 如果我改变它是443/80(前/后)它的作品。 我确实希望它是443/443。 但是当我这样设置时,我得到了504错误。
我希望能够限制传入的Web请求,但是当达到阈值时,我想返回临时redirect到CDN上的文件,而不是将请求传递到后端。 我可以使用像nginx这样的服务器来进行限制,而不是溢出。 有没有可以做到这一点的负载平衡器或networking服务器?
目前我们正在运行一个引起媒体关注的设置,我们预计这个stream量还会继续。 我们有1个haproxy负载均衡器,3个应用程序服务器(2个映像,1个通用)和一个数据库服务器。 loadbalancer根据url获取所有的加载和redirect。 问题是,我们的应用程序崩溃或每10分钟左右响应时间非常低(在graphics下降时,它的图像)。 你们知道什么是错的吗? 如果您需要更多信息,请提供。 haproxyconfiguration: global log /dev/log local0 log /dev/log local1 notice chroot /var/lib/haproxy user haproxy group haproxy daemon defaults log global mode tcp option tcplog option dontlognull contimeout 5000 clitimeout 50000 srvtimeout 50000 errorfile 400 /etc/haproxy/errors/400.http errorfile 403 /etc/haproxy/errors/403.http errorfile 408 /etc/haproxy/errors/408.http errorfile 500 /etc/haproxy/errors/500.http errorfile 502 /etc/haproxy/errors/502.http errorfile 503 /etc/haproxy/errors/503.http […]
我有一个连接到两台服务器的apache2负载平衡器。 在过去的一个月中,我注意到即使没有定义余额,负载均衡器也会优先考虑一台服务器。 我想知道如何去诊断这个问题。 我已经检查了错误日志以及哪些信息主要涉及到页面请求。 有什么我可以做的诊断问题?
我正在处理一个任务,在这个任务中,我必须对两个tomcat实例进行负载平衡,以便它们之间也可以共享一个公共会话,当其中一个发生故障时,另一个可以处理任务。 第一个任务似乎在两个Tomcat版本都在线时工作,那么似乎没有问题。 我不知道如何检测哪个用户来自哪个tomcat,所以我可以看到来自其他tomcat的用户是否正在聊天,然后session-id被正确共享。 我面对的第二个问题是,如果一个tomcat出现故障,另一个tomcat实例应该继续运行并提供正在进行的请求,但这不会发生。 只要有一个Apache Tomcat实例出现故障,我就得到一个503服务不可用。 请让我知道如何解决这个问题,并testing哪个用户是从哪个tomcat实例。 进行的更改:sites-enabled / 000-default: <Proxy balancer://mycluster> BalancerMember ajp://localhost:8010 route=jvmroute-first connectiontimeout=10 BalancerMember ajp://localhost:8011 route=jvmroute-second connectiontimeout=10 ProxySet stickysession=JSESSIONID Order Deny,Allow Deny from none Allow from all </Proxy> <VirtualHost *:80> ProxyPass / balancer://mycluster/ ProxyPassReverse / balancer://mycluster/ </VirtualHost> 第一个tomcat的server.xml: <Connector port="8080" proxyPort="80" protocol="HTTP/1.1" compression="force" compressionMinSize="1024" connectionTimeout="20000" redirectPort="443" URIEncoding="utf-8" compressableMimeType="text/html,text/xml,text/plain,text/css,text/ javascript,application/x-javascript,application/javascript"/> <Connector port="443" protocol="HTTP/1.1" […]
我有一个主摄取服务器和多个边缘节点,每个从摄取服务器拉。 但现在我有10000个摄像头推送stream来掌握摄取服务器,我怕它无法处理它。 所以我打算添加更多的主摄取服务器(与LoadBalancer LVS来处理哪些主摄取服务器,这些摄像机将推送stream)。 但是,如果有多个主服务器接收服务器的边缘节点如何将所有这些数据stream拉出来。 我也像这样在边缘节点testing拉选项 application live { notify_method get; idle_streams off; pull rtmp://master_server_1/live live=1; pull rtmp://master_server_2/live live=1; } 但是它只从master_server_1中提取stream。 有什么build议? 谢谢 顺便说一句,我想我不需要更多的主服务器,只是升级带宽。 这样对吗 ? 谢谢
我是haproxy的新手,我正努力尝试configuration它。 我想要的是: 在浏览器中input:proxy.company.com/Test/App 请haproxy在webapp01.company.com/Test/App和webapp02.company.com/Test/App之间平衡请求 保持基本URL proxy.company.com/Test/App 我到目前为止:我有两个网站设置: webapp01.company.com/Test/App webapp02.company.com/Test/App 这两个工作,当我浏览到每个单独我得到一个屏幕与服务请求服务器(WebApp01或WebApp02)的名称。 但是,当我去proxy.company.com/Test/App我得到一个404错误。 我期望的请求被路由到webapp01或webapp02,我希望看到服务器请求的服务器的名称。 这是我目前的configuration: global log /dev/log local0 log /dev/log local1 notice chroot /var/lib/haproxy user haproxy group haproxy daemon defaults log global mode http option httplog option dontlognull contimeout 5000 clitimeout 50000 srvtimeout 50000 errorfile 400 /etc/haproxy/errors/400.http errorfile 403 /etc/haproxy/errors/403.http errorfile 408 /etc/haproxy/errors/408.http errorfile 500 /etc/haproxy/errors/500.http […]
概观 我的networking应用程序允许用户通过我的服务器上传存储在s3上的文件。 当用户请求文件时,我的Web服务器从s3中检索它,然后将其发送到客户端。 我最近部署了一个负载均衡器,使我目前的设置如下: 注意目前我只有一个Web服务器来简化debugging。 初始问题 部署负载平衡器后,我发现大型文件(大于4MB左右)的下载会在60秒后504网关超时失败。 我查看了网站的负载均衡器nginx错误日志,我看到了一些条目,如: [error] 11770#11770: *40 upstream timed out (110: Connection timed out) while reading response header from upstream, client: XXXX, … 当我看到网站服务器nginx错误日志为网站,我看到了类似的条目: [error] 6632#6632: *41 upstream timed out (110: Connection timed out) while reading response header from upstream, client: … [error] 6632#6632: *85 upstream timed out (110: Connection timed […]