Articles of 负载平衡

揭示AWS EC2负载均衡器背后的真实IP地址

我有一个networking应用程序,包含我有兴趣从互联网上阅读的事件。 为此,我有一个位于两个EC2实例之前的AWS EC2负载平衡器。 我有一个跟踪这两个服务器上的事件的应用程序。 设置可以像这样被显示:实例1和2 – >负载平衡器 – >事件监视器 我看到的问题是,每个事件似乎来自负载均衡器IP而不是来自EC2实例IP。 我确信,当负载均衡器转发stream量时,会将IP放在数据包上。 在负载均衡器的AWS中是否有一个设置可以更改为使用实际IP地址而不是负载均衡器IP来转发数据包?

Elastic Load Balancer不能用于运行Node.js的8000端口

我拥有运行PHP和Node.js( socket.io )的EC2实例,并允许访问,我释放了端口80(Apache)和8000(节点),一切正常(如果我访问www.mydomain.com网站是通常显示,如果我访问www.mydomain.com:8000/socket.io/socket.io.js将显示socket.io脚本)。 但是,我想为此实例设置一个Elastic Load Balancer(仅用于testing,因为稍后我将在Auto Scaling中使用它),所以我使用以下设置创build了目标组: 之后,我在Target Group中注册了这个实例,状态检查工作完美: 所以,在我的负载均衡器(应用程序负载平衡器,而不是经典的负载平衡器),我添加了以下监听器(如果我删除了8000监听器,当我访问DNS:8000或DNS:8000/socket.io/socket.io.js被显示,只有错误ERR_CONNECTION_REFUSED ): 而在这个负载平衡器的安全组中,我还添加了端口80和8000: 所以当访问Load Balancer的DNS名称时,它通常会显示网站,但是,如果我尝试访问DNS:8000/socket.io/socket.io.js它会将URL重写为DNS:8000并继续显示网站,而不是socket.io脚本。 我已经尝试将path模式/socket.io/*添加到8000监听器,但它/socket.io/*相同的方式。 那么,我怎样才能显示socket.io脚本呢?

如何实现高可用性主动 – 主动应用服务器?

我需要设置我的应用程序是这样一个方式,使我接近0宕机。 我的一个数据中心在德克萨斯州,另外一个在拉斯维加斯。 现在,如果我的服务器被认为是公关的TX,那么所有的stream量都将被转移到Vegas服务器上,这就是DR(灾难恢复)。 如果我们使用像HAProxy或NginX这样的软件负载平衡器,使用Keepalived(检查DR站点负载平衡器和PR站点负载平衡器之间的心跳),我们将最终进行主动 – 被动负载平衡设置以克服故障转移。 这里我们的应用程序将处于主动 – 主动模式。 在这里input图像说明 如上图所示,所有stream入的stream量将达到负载均衡器(Active PR负载均衡器和被动DR负载均衡器,它们之间使能的心跳)的虚拟IP。 如果PR站点负载均衡器处于活动状态,则会将负载路由到PR站点门户应用程序实例以及DR站点门户实例(因为两个站点均处于活动状态),此时DR站点负载平衡器将处于空闲状态,并持续监视活动负载平衡器。 如果PR站点发生故障,则DR站点将变为活动状态,并自动指向DR站点Portal应用程序实例。 但是我听说,使用Keepalived设置Active-Passive负载均衡器的问题是,它在局域网中工作,但在WAN设置中无法工作。 在我们的情况下,主动PR负载均衡器将在TX和被动DR负载均衡器将在Vegas。 那么,要实现具有故障转移设置的HA,我该如何使用软件负载平衡器?

名称服务器容错

我有3个服务器运行一个名称服务器和一个networking服务器。 今天,有2台服务器出现故障。 我以为最后一台服务器会处理所有未来的请求,但是这似乎只发生在一小部分时间。 其他时候,请求会超时。 在我的每台服务器上,我都有以下的区域条目: ns1 IN A <SERVER IP 1> ns2 IN A <SERVER IP 2> ns3 IN A <SERVER IP 3> example.com. IN A <SERVER IP 1> example.com. IN A <SERVER IP 2> example.com. IN A <SERVER IP 3> www IN CNAME example.com. 我应该在每台服务器上保存一个example.com的logging吗? 我想设置我的服务器,以便任何服务器可以透明地处理所有请求,如果其他服务器停机。

需要一个可以匹配URL模式进行stream量路由的软件负载均衡器

我需要平衡stream量到几个HTTP监听器。 他们分成两组,出于两个不同的目的。 为了显示… 10.0.0.1 10.0.1.1 10.0.1.2 10.0.2.1 10.0.2.2 ——-+———–+——–+——–+——–+— | | | | | +–+–+ +-+-+ +-+-+ +-+-+ +-+-+ | LB1 | | A | | B | | C | | D | +—–+ +—+ +—+ +—+ +—+ balance 4 web servers 我想让LB1将URL模式http://10.0.0.1/tox/ *喷到Web服务器A或B,LB1将URL模式http://10.0.0.1/ *喷到Web服务器C或D. 我已经使用笔来成功负载平衡,但它不提供此URL模式匹配function。 有没有像笔那样简单而强大的东西,也可以做URL模式匹配?

负载均衡的nas

我们有两个NAS作为我们的数据同步存储。 ips为NAS如下10.10.0.5 10.10.0.6我们要创build一个场景,以便当客户端机器请求来自服务器的数据时,请求应该自动路由到其中一个服务器(在一个负载均衡pipe理器中)。 并且如果有任何NASclosures,请求应该被转发到另一个活着的 我们该怎么办呢? 请点击这个主题 编辑:他们是自定义build立的鼻子框与freenas运行在他们和smb的文件共享和客户端是混合的Linux和Windows系统。 我还没有解决这个人在那里帮助….?

使用HAProxy和keepalived的负载平衡scheme显示没有性能优势

我试图设置一个负载平衡的Web服务器scheme,使用两个HAproxy负载平衡器和两个debian web服务器遵循本指南http://www.howtoforge.com/setting-up-a-high-availability-load-balancer-with –haproxy-keepalived-debian-lenny 。 该设置工作,但简单的性能基准testing的结果是不是我所期望的。 我尝试了Apache基准testing工具,通过命令“ab -n 1000000 -c 500 http:// IP / index ”向服务器发送大量请求(一次直接testing其中一个Web服务器,另一次通过负载均衡器testing) .html “,但testing结果显示没有负载平衡器的单个服务器的性能更好。 任何人都可以告诉我,如果我在某件事上出错了吗?

bigIP支持粘性会话

BIG IP是否支持粘性会话? 在我的合作伙伴端,我有2个apache在一个Big IP框后面。 需要知道Big IP是否支持粘性会话。 我的apache启用了粘性会话。 所有的请求将会在jboss托pipe的后端。

我可以使用SSLterminal来处理敏感数据吗?如果不使用终止使用SSL的是甚么意义?

我已经阅读,即在Rackspace ,一个不应该使用SSLterminal的敏感信息(search页面“SSL终止不应该使用”)。 首先,为什么会这样呢? 其次,如果您不能相信数据安全运输,那么世界上拥有SSL的价值是什么? 我对第一个问题的猜测是,如果有人知道服务器的直接IP,完全绕过负载均衡器,然后进入端口80,那么可以添加带有HTTPS URL的X-Forwarded-For头。我可以克服那通过iptables(只允许从负载平衡器端口80),对不对? 注意:我的服务器与负载均衡器在同一个专用networking中(关于Rackspace文章中的“安全问题是什么”)。

清漆caching层vs负载平衡器

我们有大约10-15个不同的网站,目前托pipe在两个4GB RAM的Rackspace云服务器上。 这两个服务器是完全独立的,我们为每个新站点随机select一个服务器。 最近我们推出了一个新的网站,这个网站很浪费时间,而且自从上线以来,已经耗尽了服务器上的内存,导致它崩溃。 我正在调查为什么这是在网站本身。 而且我认为我可以用服务器架构做很多事情。 有两件显而易见的事情我可以做…设置清漆caching(我们拥有的网站types将从中受益匪浅)。 并在两台服务器之间设置负载均衡。 所以要做到这一点,我提出了一个新的云实例。 现在我的问题是如何处理它… 1)将其设置为另一个LAMP服务器,并从Rackspace获得一个负载平衡器(非常便宜),以便在三者之间进行负载平衡。 每个运行自己的版本的Varnishcaching网站。 2)将新盒子设置为清漆caching层,并使清漆进行两者之间的负载平衡。 我真的很喜欢选项2的声音,因为所有的caching都会在一个地方发生。 我们也可以在Varnish中做一些很酷的事情,如果所有的服务器都closures了,并且通常拥有更好的控制权,就可以让它服务于caching页面。 大部分的网站访问者都是匿名的,所以可以作为一个caching的网站。 大多数login用户是编辑人员,因此优先考虑高可用性更重要。 但是,就可用资源的最大化而言,我不确定最好的做法是什么。