Articles of haproxy

如何正确configurationHAproxy与Windowsterminal服务器

我目前正在使用Haproxy来负载平衡由5个Windows 2003服务器组成的terminal服务器场。 问题是,它似乎没有正确的平衡服务器,因为我有一个服务器过度人口和一个人口不足。 有人可以看看我的haproxyconfiguration文件,并告诉我,如果需要可以做什么增强? 谢谢。 <<Config>> # this config needs haproxy-1.1.28 or haproxy-1.2.1 global log 127.0.0.1 local0 log 127.0.0.1 local1 notice #log loghost local0 info maxconn 4096 #chroot /usr/share/haproxy user haproxy group haproxy daemon #debug #quiet stats socket /tmp/haproxy defaults log global mode http option httplog option dontlognull retries 3 option redispatch maxconn 2000 contimeout […]

无法在HAProxy中获得appsession设置

我的haproxy.cfg有一个前端,然后redirect到一堆后端, 这里是一个示例后端(注意到这个连接已经通过stunnel来撕掉SSL : backend thenameofit reqadd X-Forwarded-Proto:\ https reqadd FRONT_END_HTTPS:\ on server myserver1 serverhostnamex:80 weight 1 maxconn 5000 check server myserver2 serverhostnamey:80 weight 1 maxconn 5000 check appsession ASP.NET_SessionId len 100 timeout 3h 我确定我只是在某个地方缺less一个设置,但是在阅读configuration文档时我必须忽略它。 我正在使用HAProxy 1.4.13。

当servlet正在监听根上下文时,如何获得HAPROXY来识别服务器启动?

我正在尝试安装haproxy,以便将http请求路由到由websphere托pipe的servlet。 servlet有一个根上下文集合,以便: wget [host]:[port]/[root context] 返回响应为 wget [host]:[port] 返回404 我如何configurationhaproxy,使代理定义如下: listen MyProxy aaa.bbb.ccc.ddd:80 mode http … server SERVER1 xxx.xxx.xxx.xx:8080 cookie SERVER_01 check … 不会导致haproxy报告404服务器closures? 我看不到我可以指定根上下文的位置。 谢谢

HAProxy首先将所有的stream量直接转移到主服务器,如果主服务器redirect回主服务器,则直接转到次服务器

如何使用HAProxy实现以下简单教程: http://www.webhostingtalk.com/showthread.php?t=627783 我将首先使用HAProxy将所有的stream量直接转移到主服务器,如果主服务器返回主服务器,则直接转到次服务器 是否还有一个选项可以丢弃代理的一些请求? 例如所有的请求/放弃在这个HAProxy级别? 还有什么比HAProxy更简单,我可以用它来实现呢? (我过去使用simpleproxy用于其他用法,它使用起来非常简单,有没有办法用simpleproxy做到这一点?) 谢谢

HAProxy:可以根据HTTP请求dynamic构build新的头文件?

我想创build一个头,其中包含请求的完整URL。 举个例子: reqadd X-Request-URL:\ ${X-Forwarded-Proto}:\/\/${Host}${Path} 是这样的可能吗?

X-Forwarded-For(XFF)http头域混淆了Nginx吗?

我们有Web服务器设置如下 Loadbalancer(HAPROXY)<—> Nginx <—> App服务器 为了让Nginx知道正在build立连接的实际客户端,我使用HttpRealIpModule编译了Nginx,并进行了configuration更改。 HAPROXY也被configuration为转发XFF头。 如果客户端正在使用公共IP地址浏览,Nginx至less有一部分是正确的(我的观察)。 如果客户端拥有私有IP,并且位于另一个客户端代理(如SQUID)的后面,则获取客户端的私有IP,而不是私有IP正在被NATTED的公共IP。 根据Nginx模块文档[ http://wiki.nginx.org/HttpRealIpModule],HttpRealIpModule应该在X-Forwarded-For头部中取得最后一个IP来replace。 这里是NGREP转储为一个客户与私有IP背后的鱿鱼代理 T 192.168.255.1:53777 -> 192.168.153.164:80 [AP] .1315664739.21; __utmb=82961925.3.10.1315664739; __utmc=82961925; __utmz=82961925.1315664739.21.21.utmcsr=domainname.com|utmccn= (referral)|utmcmd=referral|utmcct=/users/sign_in; SnapABugHistory=206 #..If-None-Match: "cc1ff315751caad21aea3dfd5392a56a"..Via: 1.1 atmosphere.sprout.lan:3128 (squid/2.7.STABLE9)..X-Forwarded-For: 192.168.3.111..Cache-Control: max-age=259200..X-Forwarded-For: 116.90.235.11…. 这里的XFF头是atmosphere.sprout.lan:3128(squid / 2.7.STABLE9).. X-Forwarded-For:192.168.3.111..Cache-Control:max-age = 259200..X-Forwarded-For:116.90。 235.11。 在头部看到的最后一个IP是116.90.235.11,但是nginx的日志文件显示了客户端的私有IP 192.168.2.111 这是正常的?

如何防止HAProxy使用循环algorithm无效分配负载?

我们在EC2负载均衡器后面运行Web服务器,然后这些服务器运行HAProxy并在工作服务器之间传播负载。 假设相同的服务器权重,如果EC2有效地使用roundrobin负载平衡algorithm,看起来好像下面的情况: Server 1 handles request, sends to backend 1 Server 2 handles request, sends to backend 1 Server 3 handles request, sends to backend 1 Server 1 handles request, sends to backend 2 Server 2 handles request, sends to backend 2 Server 3 handles request, sends to backend 2 Server 1 handles request, sends […]

如何在两台Linux机器之间进行负载平衡?

受堆栈溢出networking的启发,我现在痴迷于HAProxy并尝试自己使用它。 目前,每个HAProxy盒子都有两张网卡(好了,configuration了两张),我最多可以有4张,不确定是否需要自己的盒子进行pipe理。 在这两台机器上,后端一个(eth1)是一个专用IP,连接到networking服务器的交换机,面向前端(eth0)的公用互联网IP直接路由。 另外,我为eth0创build了一个名为eth0:0虚拟ip,它拥有第三个公共ip地址。 我只是想知道如何使用它来在负载均衡之间的多个Web服务器之间进行负载平衡,但是,我无法在两个HAProxy盒子之间进行负载均衡 – 它们似乎在争夺虚拟IP,但是,这似乎并不做个聪明的解决scheme 现在,通过使用虚拟共享IP地址,这个解决scheme似乎可以正常工作,而且确实给了我最大的正常运行时间,但是,这是正确的方法吗?还是有更智能的方法? 我一直在寻找其他的Linux软件包,比如keepalived,但是我现在只用了一个星期的Linux(服务器),而且是我理解的极限。 有没有人曾经这样做过,并且能够提供最大的正常运行时间?

所有数据都通过haproxystream动还是会redirect?

如果我使用haproxy作为我唯一可公开访问的服务器,它的任务是将请求路由到我们的后端服务器,那么所有的数据都将stream经haproxy服务器吗? 如果我们有50台服务器和一台haproxy服务器,并且我们前端haproxy服务器上的实际1千兆字节端口是不够的。 如果是这种情况(我认为是这样),我们有什么select? 我相信我读了一些关于dynamicDNS的内容,是一个潜在的解决scheme吗? 因此,客户仍然可以通过一个IP地址(映射到我们的域名)到达我们,但是一旦它到达我们的本地networking,dynamicDNS就会循环(或者更聪明的)请求到一个haproxy服务器集群。

把haproxy / varinish放在nginx之后的目的是什么?

在某些设置中,我看到有人把haproxy / varinish放在nginx后面,并将请求转发到后端(例如Passenger) 例如 Nginx <—> HaProxy / Varinish <—-> Passenger / Apache 我不明白为什么不把HaProxy / Varinish直接放在边缘,有什么优势?