如此处所述,思科ACE有一个有趣的用法来平衡通过不同ISP的输出互联网stream量。 基本上,它将在ACE的边界路由器上被设置为rservers,一个处于透明模式的服务器场(在目标地址中没有NAT),每个ISP VLAN中的SNAT池以及一个可以被用作默认网关的VIPnetworking。 有没有人执行这个? 换句话说,有没有人使用ACE来负载平衡一对路由器? 注意:运行BGP的路由器是更好的解决scheme,但并不总是一个选项。
我不得不在一个旧的硬件上工作:Foundry ServerIron 450 我有一个主机需要同时在3个VIP中:10.1.1.21:3333又名(主机-a:3333) 我遇到的问题是,当我将主机添加到三个VIP中的最后一个时,在另外两个VIP中显示为“主动 – 被禁用”? 我真的很喜欢一个示例configuration,以便这个真实的服务器可以同时在所有三个VIP中“主动 – 主动”。
我正在寻找一种方法来避免尽可能多的实际停机时间(我们不是全部)。 最近我们遇到了很多服务器超载/问题。 我们现有的设置如下(他们是Linux服务器): 2个负载平衡器 – 一个用于HTTP请求,另一个用于HTTPS 3 Web服务器(每个驱动器4GB内存) – 一个主站头,使用lSync 2数据库服务器通过私有IP连接到站点同步到两个从站驱动器我们使用Varnishcaching,但主要是上传和pipe理连接到web01进行适当的同步 几乎我们所有的网站都是WordPress安装。 我们的stream量很大程度上是受到电子邮件爆炸的驱使,所以我们集中了大量的stream量。 问题是:当一个网站被大量stream量所击中,或者当我们的系统configuration出现问题时,所有网站都会在没有完全停止的情况下进行抓取。 问题1:是否有服务器configuration可以设置,当一个服务器集群发生故障时,另一个启动等等? 问题2:有人可以推荐这个主题的好资源,可能包括各种服务器configuration的图表吗? 真正的大个子如何做到这一点? 🙂 PS我的服务器pipe理知识是有限的,但我期待着学习,并试图理解你的回应!
我试图让4个NIC的Linux Mint计算机充当一个负载均衡服务器。 我们的想法是,我们有三个互联网连接,我们要使用所有这些,所以我们可以在所有线路上共享50台计算机的使用情况。 我设法使用IP路由默认等服务器本身上平衡发生,但我想要一个iptables解决scheme(所以不像IP路由它不会被caching,因为所有的脂肪酶都是facebookers) 我似乎被卡住的地方; 我已经得到了静态地址信息的所有网卡的设置(见下文),并testing了连接。 他们在工作。 我不知道如何通过“防火墙”(尽pipe我已经取得了一些成功)在内部networking上路由stream量,或者如何让防火墙接受连接并通过iptables路由它们。 我曾尝试在comp上设置一个DHCP服务器,但是我把它烧了,不得不重新开始。 令人沮丧的。 我的解决scheme是设置Linksys路由器作为DHCP服务器,与一个静态广域网地址等我做了Linksys WAN网关作为我的电脑静态IP为该网卡,并testing了连接。 我能够通过其WAN端口login路由器,所以我也知道它的工作。 (是的,我不得不在路由器上设置外部访问,使其工作。) 然后,我用我的笔记本电脑从内部networkingping到“防火墙”,工作(反之亦然)。 所以我知道通过路由器的通信正在工作。 现在我只需要知道如何让'防火墙'接收传入的数据包,并将它们路由到其他接口之一。 我上个月愚弄了自己,试图弄明白。 所以我的脚本附在下面,告诉你我在哪里。 Scripts and other information below: 我的启动脚本,由于大量的谷歌search。 P1_NET="192.168.1.0/24" IF1="eth1" IP1="192.168.1.249" P1="192.168.1.254" P2_NET="192.168.2.0/24" IF2="eth2" IP2="192.168.2.249" P2="192.168.2.1" echo 1 > /proc/sys/net/ipv4/ip_forward # Enables packet forwarding by kernel ip route add $P1_NET dev $IF1 src $IP1 table Line1 ip route […]
我有一个Jboss场,通过Apache HTTP + mod_proxy_balancer和mod_proxy_ajp进行负载平衡,具有以下configuration: <VirtualHost *:80> ServerName web-gui-acceptance.myorg.com ServerAlias web-gui-acceptance ProxyRequests Off ProxyPass /web-gui balancer://jbosscluster/web-gui stickysession=JSESSIONID nofailover=On ProxyPassReverse /web-gui http://srvlnx01.myorg.com:8080/web-gui ProxyPassReverse /web-gui http://srvlnx02.myorg.com:8080/web-gui <Proxy *> AuthType Kerberos […] </Proxy> <Proxy balancer://jbosscluster> BalancerMember ajp://srvlnx01.myorg.com:8009 route=SRVLNX01_node1 BalancerMember ajp://srvlnx01.myorg.com:8009 route=SRVLNX02_node1 ProxySet lbmethod=byrequests </Proxy> </VirtualHost> 当第一个JBoss节点失败时(主机虚拟机closures),我现有的连接不会在第二个节点上失败……第一个路由被保存(在表/ .shm中),并且提供了503个错误。 有人能告诉我我错过了什么吗?
我们有相当高的stream量,php密集的网站; 处理相当大的数据块被caching。 我承认,我很难承诺改变服务器configuration。 但是我们需要一个新的故障转移解决scheme。 过去我们尝试了Nginx + PHP5-FPM,发现它抛出了太多的50x错误。 信不信,我们仍然运行Apache + mod_php,APC和memcache,它稳定可靠。 但是,我们需要更好的故障切换,并最终离开现场。 不要提亚马逊云,我们也不太好。 所以对于像我这样的人来说,冒险不利于改变configuration/设置,我知道为我们的Web应用程序产生良好的性能如何引入正确的负载平衡器? 基本上2个负载均衡器在群集中运行心跳,以消除单点故障。 在1或2中断的情况下,加载平衡多个网页框。 但是什么LB稳定使用。 我喜欢禅负载平衡器的声音,但我也吸引清漆反转代理,也平衡交通。 我们有一个在另一个项目上build立了一个LB的机架空间,这给我们带来了悲伤,所以我只需要一个稳定的解决scheme,即LB /故障切换,没有任何丢失连接或500错误。
我们在Rackspace上为3个Web服务器节点设置了一个简单的负载均衡器。 在审查我们的stream量和费用后,最大的带宽是谷歌机器人。 由于在Rackspace上我们按字节支付带宽,因此我们希望将所有来自GoogleBot的stream量定向到带宽无限的其他主机(MediaTemple)。 我们认为这会每月减less数千美元的托pipe账单。 这可能吗? build议?
我们计划将我们的Tomcat / MySQL应用程序迁移到使用在不同可用区域中运行的2个EC2实例(inst_1和inst_2)的Amazon云,从而inst_1将包含主RDS数据库和inst_2从属RDS数据库。 如果我们使用弹性负载均衡来平衡两个实例之间的stream量,那么定向到inst_2的包括插入/更新/删除db事务的stream量将首先在inst_1中更新主RDS数据库,然后在inst_2中同步更新从属服务器; 从而确保两个RDS实例始终同步? 亚马逊公布的信息(白皮书)表明了这一点,但没有明确说明。 如果不是,如何确保两个RDS实例保持同步? 附加说明:我们正在计划采用Amazon的Elastic Beanstalk。 谢谢!
这是设置。 我们有一个带有虚拟集群的硬件负载平衡器。 我们称之为虚拟集群example1.com。 这个虚拟集群负载均衡在两个鱿鱼反向代理之间,这些代理也与Web服务器在同一物理服务器上。 Squid在80上侦听,并指向自己作为在81上侦听的cache_peer web服务器。我们也有一个独立的web服务器,我们将称之为example2.com。 我们要做的是在example1.com上创build一个名为example1.com/example2的子目录。 这将指向example2.com,但我们希望我们的用户在浏览器中停留在example1.com/example2。 所以,这就像一个redirect,而不是实际上是一个redirect。 我该怎么做呢? 这甚至有可能吗? 我正在看鱿鱼文件在此期间。 example1.com运行一个专有的Web服务器 – 不是Apache 🙁 我们无法在example1.com的文件系统中托pipeexample2.com的内容。 这是两个非常不同的平台。
我试图负载平衡代理(鱿鱼)服务器(目前8个节点)的networking有效。 我目前正在通过networking范围代理autoconfig平衡,但似乎无法正常工作。 有些服务器的负载可怕,有些只是坐在那里等待请求。 什么是有效的平衡这些(在客户端没有太多变化)? 是否有可能做某种请求委托,而不是只是转发: Client -> Balancer -> ProxyX | ProxyX -> Client 我想避免交通瓶颈: Client -> Balancer -> ProxyX | ProxyX -> Balancer -> Client