Articles of 负载平衡

是否可以将IP地址指向域名?

通常你把一个域名指向一个IP地址(一个logging),但是我想做相反的事情。 有一家公司需要在www.example.com上打电话给我的API,但该公司表示不能拨打一个域名,他们需要一个静态IP。 我有一个弹性IP,我可以给他们。 现在我的问题是,是否可以将IP指向我的域名? 我想这样做的原因是因为我的域名有多个Alogging(DNS负载平衡),我不想失去它。 所以,我想(理想情况下),如果你curl的IP地址,它将parsing为一个域名,然后域名将parsing为多个Alogging,然后得到的API。 我在亚马逊基础设施上; ec2,route53等

通过负载均衡器后面的http-keepalive减lessHTTPS握手 – 可能吗?

我有一个API在哪个病毒得到不less请求在https。 由于它的安静,每次发送api时,都需要一个完整的握手。 在启用http-keepalive时,请求的延迟会大大降低(第一个请求需要相同的时间,但后续请求与http一样快)。 现在,我正在试验亚马逊的ELB(我也将使用云端)。 我的问题是,如何保持在同一个设置中工作,来自客户端的请求可以随机地路由到不同的机器上? 或者每次发出请求时都不可能阻止ssl握手?

如何使用像f5一样的loadbalancer来设置rabbitmq集群的故障转移

我一直在试图find关于f5开发人员中央和互联网关于以下设置没有运气的信息。 我们想要一个有3个节点的rabbitmq集群。 1节点将始终是所有队列的主/主节点。 1.将所有队列的所有连接/stream量发送到当前主节点(A)。 2.当节点A无响应(由于应用层或networking层问题)时,负载均衡器应自动将所有stream量故障切换到节点(B)。 3.如果节点B发生故障,移动到节点C. 问题:如何决定一个节点没有响应,故障转移到单独的节点应该发生? 有没有办法通过loadbalancer为此使用amqp协议调用rabbitmq? 找不到有据可查的文件。 即使您不知道如何使用F5来实现这一点,也可以从不同的负载平衡器或代码angular度来回答它。 除了这个问题:我认为无论这个健康检查是什么,必须具体一点,rabbitmq集群已经在主节点上已经故障到达节点B,当LB切换发生并且没有虚警时。 感谢您花时间阅读和回答。

Management Studio使用什么端口连接到SQL Server(2005)

我有SQL Server 2005远程托pipe的服务器上运行,并希望从我自己的机器使用pipe理工作室访问它 远程服务器上的防火墙已经准备就绪,允许来自外部IP的所有stream量 – 这很好。 不过,我有一个负载平衡路由器,有第二行连接到它 – 不幸的是第二行有一个dynamic的外部IP。 因此,我需要在路由器中设置一个规则,在第一行总是从Management Studio发送数据 – 但是我需要知道端口号。 你能build议吗?

你如何构build冗余的Linux服务器,使客户端在失败时不会失去连接?

如果您需要故障恢复能力,则可以构build多台服务器,每台服务器可以为任何客户端提供服务,并将数据放入某个SAN或共享数据库集群中。 但是,如果客户端直接连接到一台服务器,并且该服务器失败,则会出现networking错误。 您可以通过将负载均衡器放在它们的前面来解决这个问题,无论是PC中的软件基础还是专用硬件。 在这种情况下,单个服务器的死亡并不会导致客户端发生networking错误。 但是,负载均衡器本身可能会死亡。 所以你不是比以前好,对吧? 如果我假定DC确保数据包安全地到达我的服务器所在的交换机,那么有没有办法在一个IP上路由stream量,使得硬件故障不会导致连接丢失? 这可以做到没有专门的硬件? 或者我错过了一些不可能的原因? 为了争论,我们假定(非networking)悲剧被分解成消息,并且可以安全地caching和重放相同的消息,对于接收到但未被故障服务器拒绝的每个消息。

在硬件LB之后的零停机部署(Tomcat),Nginx或HAProxy – 如何“饿死”旧的服务器?

目前我们有以下设置。 硬件负载平衡器(LB) Box 8080(TA)上运行的Tomcat 运行Tomcat的Box 8080(TB) TA和TB在LB后面运行。 现在,使用Box A或Box B从LB中进行零宕机部署是相当复杂和手动的工作。 我正在想做这样的事情: 硬件负载平衡器(LB) Box A在8080(NA)上运行Nginx Box 8081上运行的Tomcat(TA1) Box 8082上运行的Tomcat(TA2) 在B80上运行Nginx的Box B(NB) 在8081上运行Tomcat的Box B(TB1) 在8082上运行Tomcat的Box B(TB2) 基本上LB现在将指挥NA和NB之间的stream量。 在每一个Nginx的我们将有TA1,TA2和TB1,TB2configuration为上游服务器。 一旦上游的健康检查页面中的一个没有响应(closures),stream量将转到另一个(Nginx上的HttpHealthcheckModule模块)。 所以部署过程很简单。 说,TA1是活跃的0.1版本的应用程序。 TA1上的健康检查是可以的。 我们开始TA2与Healthcheck作为错误。 所以Nginx不是在跟它说话。 我们将应用程序版本0.2部署到TA2。 确保它的工作。 现在,我们将TA2上的Healthcheck切换到OK,将Healthcheck切换到TA1以ERROR。 Nginx将开始为TA2服务,并且将移除TA1。 完成! 现在和另一个盒子一样。 虽然听起来很酷,但是我们怎么“饿死”Nginx呢? 假设我们有待处理的连接,TA1上的一些用户。 如果我们closures它,会话将会中断(我们有基于cookie的会话)。 不好。 任何使用Nginx来阻塞上游服务器的stream量? 谢谢!

如何避免陷入DDOS为别人(不能阻止)?

所以我们有一个负载平衡器和所有与Rackspacebuild立的爵士乐。 但是,猜猜看,我们客户的网站今天再次下滑。 Rackspace似乎应该把他们的负载均衡器架构与其他的东西分开,但我相信他们有他们的理由。 令人惊讶的是,DDOS不在他们的SLA之下。 我知道你可以做的不多,以防止DDOS,但这些攻击不是为我们的意思。 我们如何避免陷入DDOS?

是否有可能来自单一来源的负载均衡请求?

在我们的应用中,服务器A与服务器Bbuild立TCP连接,然后通过TCP连接向服务器B发送大量请求。 请求消息是基于XML的。 服务器B需要在很短的时间内做出响应,处理请求需要时间。 所以我们希望可以引入一个负载平衡器,并且可以通过使用多个服务器B来加速处理。 这不是一个Web应用程序。 我做了一些研究,但没有find类似的负载均衡器的应用。 任何人都可以告诉我,如果有负载平衡器可以帮助我们的应用程序? 说明我们的应用的图表:

如何负载平衡重要的Web应用程序?

我打算推出一个新的Web应用程序,我期望有很多的访问,所以负载均衡是有益的吗? 在什么情况下是有益的?

清漆服务器:如何在顶部负载均衡器和下面的EC2 Web服务器之间?

我仍然有点新手,但现在我在AWS / EC2红帽机器。 我有: 1x负载均衡器(上图) 2x EC2 Apache Web服务器(下) 就像是: LB | ——- | | Web Web 那么现在如果我打算把2x Web Servers的1x Varnish面前: 展示位置是什么? 请build议,并将它是这样的: LB | [V] ——- | | Web Web 是吗? 所以在这里我的问题是: 如果是的话,原来的LB已经不是很有用了(我想)。 请问Varnish会再次成为负载平衡器吗? 那么,这是不是意味着,我不需要默认的EC2负载均衡器了? 请指导我正确的安置和分享逻辑。 谢谢你这么。