请注意,这也已发布在http://thread.gmane.org/gmane.comp.web.haproxy/27737 我们正在尝试configuration这个架构: ELB使用预先configuration的证书终止SSL。 (这是一个要求,因为只有受限制的人才能访问最终用户证书) ELB使用SSL连接到HAproxy后端(也是要求) ELB按照http://amzn.to/1YajEG3中的说明发送代理标头 HAproxy在443中侦听SSL HAProxy用于做一些HTTP转换(修改标题等)。 一旦ELBconfiguration为SSL +代理协议,我们尝试通过在HTTPS前端的绑定中添加accept-proxy来configurationHAProxy: frontend https-in mode http # Note, I truncated this line because the maillist 80 chars limitations bind :443 accept-proxy ssl crt \ /var/vcap/jobs/haproxy/config/cert.pem \ no-sslv3 ciphers … … 但它失败了: Received something which does not look like a PROXY protocol header 。 疑难解答我发现ELB发送SSLstream的PROXY头INSIDE。 例如,我运行openssl作为服务器: $ openssl […]
对于backup指令,Nginx文档声明的最低限度是: 将服务器标记为备份服务器。 当主服务器不可用时,它将被传递请求。 如果您有多个备份并且主服务器出现故障,请问是否有一个备份指定了新的主服务器? 还是会Nginx之间的循环? 而且这是否也适用于TCP? 背景 : 我有一个主服务器和多个备份,但所有的连接应该总是去相同的主或备份。 有点像ip_hash负载均衡模式,除了它应该为所有的连接和客户端使用相同的服务器。
我有安装在Ubuntu 16.04上的ppa最新的NGINX。 nginx版本:nginx / 1.12.1 从我的理解,它应该支持stream和UDP负载平衡。 但是我得到这个错误消息: nginx: [emerg] "stream" directive is not allowed here in /etc/nginx/conf.d/load-balancer.conf:3 这是我在/etc/nginx/conf.d/load-balancer.confconfiguration stream { upstream backend { least_conn; server 172.31.9.51 fail_timeout=10s; server 172.31.20.140 fail_timeout=10s; } server { listen 500 udp; listen 4500 udp; proxy_pass backend; proxy_timeout 1s; proxy_responses 1; error_log logs/dns.log; } }
我们正在使用mod_jk和apache来平衡我们的tomcat服务器。 我们想知道什么是与亚马逊AWS负载平衡器的经验和比较。
我有兴趣使用Rackspace Cloud Servers API构build一个dynamic可扩展的托pipe服务。 Cloud Servers API允许我以编程方式添加和删除服务器实例。 系统要求 在大多数情况下,只有一台共享服务器,但也可能是专用服务器,当带宽超过某个目标时,将调配一个新的服务器,从其他位置复制或恢复Web目录(可使用云文件,或svn,git等)。 可以使用puppet或一些自定义脚本来configuration文件。 理想情况下,每个域或一组域将拥有一旦超过的带宽配额,将触发一个新服务器的部署,只有该域的文件在1个小时的时间内部署。 如果在该目标之后带宽仍然超出,则服务器将保持另一个小时,等到不再需要时,服务器将被移除。 如果有人已经部署了这样一个系统,或者可以提供一些援助,这将是非常感谢! 关键问题: 1.如何确定多个实例的带宽使用情况? 2.当给定的服务器只有一个小时(我可以在这里使用代理服务器),我怎样才能避免DNScaching问题? 3.确保将文件快速部署到每个新部署的服务器的最佳方法是什么? 4.使用像这样的dynamic集群,我该如何支持FTP(我不喜欢使用FTP,但有些项目可能需要它)。
我最近inheritance了一个基于Linux的小型负载平衡Web服务器。 不幸的是,它从来没有完全上线,所以我正在这样做。 基本设置是: 基于LVS的负载均衡器。 也作为Web服务器的简单NAT。 两个Apache / PHP5 Web服务器。 MySQL数据库服务器。 数据库服务器在主公司防火墙内,而其他三个在DMZ中。 基本的负载平衡的工作,但我曾经遇到麻烦持续与LVS连接,因为PHP5的会话存储使用本地文件,我们失去了会议。 我可能能够让LVS坚持会话,但是由于连接通常是在同一个防火墙后面连接大量NAT客户端,请求之间有时会有很长的延迟,所以我认为这可能是一个失败的主张。 我决定改用会话存储的memcached,因为它可以快速设置。 我的问题是memcached服务应该在哪里存在? 我无法添加其他服务器,因此必须使用负载平衡器或数据库服务器。 目前,我倾向于把它放在数据库服务器上,因为它没有外部连接,但我担心这两者可能在一定程度上相冲突。 这种情况有没有最好的做法? 还是有其他的指导?
我已经“桥接”在我的Server 2003中的NIC,但是当我做大文件传输时,我发现一次只有一个是活动的。 我需要做些什么才能在两个NIC之间传播爱情呢? 我希望增加从我的服务器到我的networking的传输速度。 PS:我有一个D-Link DGS-1016D开关。
我们正在AWS EC2实例上运行我们的服务器。 服务器必须在端口80上提供HTTP,在端口1935上提供RTMP(TCP)。 运行一个实例工作正常。 但是,只要我使用Elastic Load Balancing来平衡两个EC2实例之间的负载,一分钟后RTMP(TCP)连接就会丢失。 即使我们的应用程序应该容忍不满,现在不适用。 使用haproxy来平衡负载,我们不会遇到这些早期的不满。 Elastic Load Balancer对我们很有吸引力,因为它具有自动缩放function。 有什么build议为什么当我们使用AWS Elastic Load Balancer时会发生这种断开连接?
我们正在考虑使用Amazon的ELB对内部API服务器进行负载均衡请求。 如果我们使用它,我们是否必须通过公共IP地址路由我们的stream量,从而失去将stream量仅发送到私有IP地址的速度和成本优势? (API服务器和API使用者都是EC2托pipe的,所以我们更愿意使用私有IP地址。)
我试图build立一个HAProxy,它将监听80端口,并将任何stream量的位置redirect到两个服务器,同时进行健康check 。 服务器具有不同的URL,所以afaik我不能使用server <name> <ip>:<port> check行,因为我希望客户端的浏览器读取https:///ssl1.blah.com或https:// ssl2。 blah.com 这是我的haproxy.cfg: global log 127.0.0.1 local0 log 127.0.0.1 local1 notice #log loghost local0 info maxconn 4096 #debug #quiet user haproxy group haproxy defaults log global mode http option httplog option dontlognull retries 3 option redispatch maxconn 2000 contimeout 5000 clitimeout 50000 srvtimeout 50000 listen webfarm *:80 mode http […]