我在CentOS 7上有一个Clustered Loadbalancer(起搏器,corosync,apache 2.4)。有两个configuration文件,一个用于实际的平衡站点,一个用于平衡器pipe理器。 当我访问平衡器pipe理器站点时,它实际上显示一个空的页面( 负载平衡器pipe理器为10.0.0.20 …..服务器版本,服务器版本—————– – END ),就像这样 – 但是无论我把SetHandler指令(直接放到vhost1.conf,httpd.conf等)中,它都保持不变。 我也得到一个HTTP 200在请求日志。 vhost1.conf: <Virtualhost xxxx:443> SSLEngine On ….. ….. <Proxy balancer://mycluster> ProxySet failonstatus=503 BalancerMember http://10.0.0.21 loadfactor=5 connectiontimeout=2 retry=600 BalancerMember http://10.0.0.22 loadfactor=5 connectiontimeout=2 retry=600 BalancerMember http://10.0.0.23 loadfactor=1 connectiontimeout=2 retry=600 ProxySet lbmethod=bybusyness </Proxy> ProxyPass /myservices/ balancer://mycluster/myservices/ ProxyPassReverse /myservices/ balancer://mycluster/myservices/ </VirtualHost> vhost2.conf: Listen 10.0.0.20:8008 <VirtualHost 10.0.0.20:8008> […]
我的一个项目是一个内部的Web应用程序,我们把它放在负载均衡器的后面。 到目前为止,只有一个ec2(将在生产中更多),负载平衡器无法达到ec2-Instance。 负载平衡器设置为通过端口448接受连接,并将它们转发到端口80上的ec2-Instance。ec2-Instance在控制台中的负载平衡器中列出,但它们保持健康检查失败。 为了进一步debugging,我通过带有安全组的控制台创build了一个testingec2-Instance(54.68.255.208),该组允许任何端口上的世界任何地方的连接。 我在它上面安装了apache,并将其作为默认页面。 然后,我创build了一个新的负载均衡器( http://lb-test-lb-512274268.us-west-2.elb.amazonaws.com/ ),允许所有的TCP端口上的stream量。 我添加了ec2-Instance到负载均衡器,但是没有明显的原因,即使我可以通过端口80连接到ec2-Instance,没有任何问题,健康检查仍然失败。 我们办公室里没有其他人有这个问题,但没有其他人对导致它的原因有任何解释。 这听起来像我在这里失去了什么?
我知道我的问题听起来不可能,但我会深入研究。 我有三个互联网连接: 来自提供商1的ADSL; 来自Provider 2的ADSL; 来自Provider 3的LTE(USB WiFi Box)。 我需要将所有三个连接都连接到路由器,并通过一个WiFi连接为我的主机提供服务。 他们只看到一条名为Office_WiFi的线路,但它们隐藏地交替连接到三个互联网连接(所以三个不同的公共IP)。 我的需要是平衡线路的负载和pipe理每个主机的频带。 例如: Host 1需要上传一个大文件,我的networking会自动给予他优先权,并将其设置为ADSL from provider 1而不是LTE from Provider 3 (USB WiFi Box)的LTE from Provider 3 (USB WiFi Box) 。 有没有办法做到这一点? 有人告诉我开始使用pfSense 。 pfSense能帮我解决这个难题吗? 谢谢你们! Ps:问题是有三个广域网和一个局域网。
前言:我不太了解负载均衡。 假设我在Amazon这样的云服务上有几个虚拟机,每个运行几个coreOS的实例。 在这种情况下,负载平衡究竟如何工作? 我想通常有一台机器运行Linux与HAProxy安装,这是IP连接到您的域名和其他任何。 然而,CoreOS拥有Fleet,它应该在集群节点之间分配任务。 这是否会改变负载平衡的dynamic?
我想创build本质上的7层平衡冗余交换设置,如果本地服务器发生故障,它将自动切换到Office 365 Exchange服务。 我想知道如何做到这一点。 Office 365 / Azure中似乎没有活动的邮箱数据库同步方法。
背景 我有以下Nginxconfiguration,这是负载平衡2台不同服务器上运行的Tomcat服务器: ### http://nginx.org/en/docs/http/ngx_http_upstream_module.html#hash upstream backend_w_affinity { hash $request_uri consistent; server 192.168.110.11:8080; server 192.168.110.12:8080; } server { listen 80 default_server; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; location ~ ^/path/to/rest/endpoint$ { proxy_pass http://backend_w_affinity; } } 当我使用下面的curl命令来驱动Nginx的stream量时,它似乎很好。 $ watch "curl -iI http://10.128.13.153/path/to/rest/endpoint" HTTP/1.1 401 Unauthorized Server: nginx/1.8.0 Date: Tue, 09 Jun 2015 01:31:13 GMT […]
我有一个小问题要解决: 我需要find一种方法来在我的服务器上负载均衡,带宽方面,传入的RTMPstream。 我有2个RTMP服务器(nginx-rtmp),我们称之为S1和S2。 RTMP服务器正在侦听1936端口, HAProxy与S1在同一台机器上对数据stream进行负载平衡,只要它在两个服务器上使用带宽,就可以正常工作。 使用当前的configuration,客户端发送一个RTMPstream,S1上的HAProxy接收它并selectS2作为接收服务器,最后将streamredirect到它。 因此,对于1Mbps的stream,S1使用1Mbbs接收数据stream,1Mbps将数据stream转发到第二台服务器,在S2上也使用1Mbps。 这里是HAProxy的configuration: global log /dev/log local0 log /dev/log local1 notice chroot /var/lib/haproxy #user haproxy #group haproxy daemon defaults log global mode http option httplog option dontlognull contimeout 5000 clitimeout 50000 srvtimeout 50000 errorfile 400 /etc/haproxy/errors/400.http errorfile 403 /etc/haproxy/errors/403.http errorfile 408 /etc/haproxy/errors/408.http errorfile 500 /etc/haproxy/errors/500.http errorfile 502 /etc/haproxy/errors/502.http errorfile 503 […]
我已经部署了archetecture的平台,我有nginx lb服务器哈希,后面是有4个应用程序的应用程序服务器。 nginx lb服务器具有如下configuration: 上游example1.com {ip_hash; 服务器10.10.10.10; 服务器10.10.20.10} 上游example2.com {ip_hash; 服务器10.10.10.11; 服务器10.10.20.11} 所以它代理私人IP的服务器。 我的问题是,每个应用程序如何获得专用的公共IP地址? 我的代理服务器有4个IP地址,我想把每个地址指向每个应用程序。 谢谢!
我正在AWS上构build一个简单的web应用程序体系结构,如下所示:Elastic Load Balancer – 多个前端 – RDS数据库。 我也build立了一个NFS服务器来存储用户通过networking应用程序上传的所有图像,比如configuration文件图片(我不能使用S3,我只是遵循规范我得到…)。 前端虚拟机由自动缩放组产生。 产生虚拟机时,会从S3存储桶下载Web应用程序源。 问题是,我有这些源文件(主要是静态文件,如mp4或图像)的一些巨大的文件,我想在NFS服务器上存储这些大的静态文件,因为它需要太多的时间从S3下载。 所以我的问题是:什么时候在NFS上存储一个文件是相关的,什么时候最好在每个前端上放一个文件呢? 例如,如果我在NFS上存储mp4,为什么不把整个web应用程序存储在这个NFS上呢? 注意:我不想构build包含这些文件的AMI,因为修改它们时不够灵活
首先,如果之前已经回答了这个问题,我很抱歉,但我一直在寻找一段时间,似乎无法find(或理解)一个答案。 所以,我有两个物理服务器和centOS。 其中1个已经托pipe了一些网站和数据库。 现在我想通过使用故障转移的负载平衡来创build冗余环境。 所以基本上,我想让两台服务器都运行,通过当时打开的连接来分割工作,当其中一台崩溃时让另一台服务器接pipe所有工作。 我遇到的每个例子都有2个web服务器前面的haproxy的第三台服务器。 但只有2台服务器(例如在两个Web服务器上安装haproxy)是可能的吗? 还是有更好的方法来处理这个问题? 提前致谢。