Articles of 负载均衡

将WAR重新部署到Tomcat的最佳做法是什么?

将WAR重新部署到Tomcat的最佳做法是什么? 假设我有一个服务于长时间运行types的用户的web应用程序(早上login,使用所有说法),并希望不停地重新部署应用程序,以便当前用户可以继续login,但新会话获取创build一个重新部署的战争。 我最好的猜测是使用一个负载平衡器和两套Tomcat实例,但是最好的做法和最好的软件是做什么的(目前的环境是基于Ubuntu,Tomcat和Nginx的。

如何在HAProxy负载平衡后水平缩放SSL终止?

我一直在环顾四周,似乎没有人试图按照我的方式来扩展SSLterminal,我很好奇为什么我的方法似乎很不寻常。 以下是我想要做的以及为什么: 10.0.1.1 10.0.1.2 – 10.0.1.5 —–+——–+—-+—-+—-+ | | | | | +–+–+ +-+-++-+-++-+-++-+-+ | LB1 | | A || B || C || D | +—–+ +—++—++—++—+ haproxy 1.5 haproxy 1.5 + tomcat tcp mode http mode 为什么这个疯狂的设置Internet -> HAProxy (tcp mode) -> HAProxy (http mode) -> Tomcat ? 用两个字来说:安全性和可扩展性 通过将SSLterminal卸载到运行HAProxy 1.5的Web后端(AD)和仅在回送接口上监听的Tomcat,我可以保证所有stream量都从客户端encryption到服务器,而不会从本地到networking的任何事件嗅探后端。 另外,随着SSL需求的增加,我可以简单地在负载均衡器后面增加新的(便宜的)后端服务器。 最后,它消除了将证书置于面向外部的LB上的需求,并且由于受到攻击的LB将不会有任何Pem或证书,从而增加了额外的安全性。 […]

Linux虚拟服务器是旧的,还是停滞不前?

基于这个问题: 广泛使用的负载平衡解决scheme? ,LVS可能是我的问题的正确解决scheme。 但是当我到了主页http://www.linuxvirtualserver.org/时 ,发现自2008年11月以来,LVS已经更新。世界正在快速发展,我不知道LVS是否已经过时。 LVS是站得住不稳,还是有一些更好的解决scheme来取代它? 非常感谢。

如何扩展支持长轮询的Web服务器

我打算添加更多Web应用程序服务器来支持日益增长的客户端,部署HAproxy和Keepalived以实现负载平衡和高可用性。 我的服务器使用情况具有以下特征: 作业不是CPU密集型的。 消息是小于100个字符的JSON文本。 用户将通过客户端设备Y发送消息到服务器。通常每天4-5个消息 客户端设备X持续等待来自服务器的消息 如果消息在服务器上可用,则客户端设备X必须能够在2秒内得到它。 否则,此消息已过时。 出于这样的原因, 客户端设备X正在使用长轮询HTTP连接来响应。 每个连接将持续5秒钟并重新连接。 客户端设备X和客户端设备Y连接到同一台服务器,因此X和Y可以轻松发送消息 题 如果有超过60,000个客户端设备X连接到服务器,则我的负载均衡器或路由器将用尽TCP端口。 扩大20,000名用户的最佳方式是什么? 我的服务器在Ubuntu服务器上运行,使用tomcat和Java Servlet。

使用HAProxy,仅在ACL中匹配根URL

使用HAProxy,我想创build以下设置: 除root(/),/ articles和/ blog之外的所有请求都会转到server1 对根(/),/文章和/博客的所有请求都转到server2 我无法弄清楚如何匹配根,而不依赖于设置默认的服务器,然后否定所有的请求去server1规则。 我如何使用HAProxy来expression上述内容? 一个正则expression式可能是解决这个问题的方法,但是我对正则expression式并不擅长,所以很难提出一个基于它的解决scheme。

具有https真实服务器和客户端证书的Apache负载均衡器

我们的networking要求规定所有networkingstream量必须encryption。 networkingconfiguration如下所示: ———— /– https –> | server 1 | / ———— |————| |—————|/ ———— | Client | — https –> | Load Balancer | —- https –> | server 2 | |————| |—————|\ ———— \ ———— \– https –> | server 3 | ———— 它必须通过客户端证书。 我有一个可以用真实的服务器进行负载平衡的configuration: <VirtualHost *:8666> DocumentRoot "/usr/local/apache/ssl_html" ServerName vmbigip1 ServerAdmin [email protected] […]

在Amazon(AWS)上进行负载平衡并保持最新

我想为我的网站有一个负载平衡器,并使该网站是最新的。 负载均衡器将采用我select的AMI,并在处理能力达到一定水平时启动更多的实例。 问题是AMI可能不是最新的,所以我将有一些实例是最新的,其他的不是。 当我部署时,我可以毫无问题地部署到负载均衡器下的所有实例,但是我需要知道每当负载均衡器join新实例以触发此部署时。 而且,当更新发生大大降低其响应时,会有一段时间。 所以我想出了一个计划。 我的计划: 部署后: identify one of the instances and get instance id identify volume of instance id ec2-create-snapshot vol-yyyyyyyy get snapshot volume id ec2reg -s snap-zzzzzzzz -a x86 -d Description -n imagename get image id as-delete-launch-config existinglaunchconfig as-create-launch-config mylaunchconfig –image-id IMAGEID –instance-type m1.small –key mykey –group mysecuritygroup as-update-auto-scaling-group –launch-configuration mylaunchconfig […]

负载平衡的Linux服务器跨互联网?

我正在研究设置一个由三个CentOS 5.4盒子组成的负载均衡服务器解决scheme。 其中两个箱子将驻留在一个设施中,而另一个将驻留在另一个设施中。 我目前正在设置心跳,ldirectord,ipvsadm负载平衡的机器,但我不知道它会去工作 我不太熟悉所有这些工作背后的细节,但是当这些服务器不在同一个局域网上时,负载平衡能够正常工作吗? 我不确定心跳是否使用SNMP发送信号,这只能通过局域网工作。 有没有人试过或find了不同的解决scheme?

是否可以使用多个负载平衡器将stream量redirect到我的应用程序服务器?

我是新来的负载平衡,我想知道是否有可能使用多个负载平衡器redirectstream量到我的应用程序服务器。 我真的不明白如何做到这一点。 一个域名不能与某个服务器的IP地址一一对应(在这个例子中是一个负载均衡器的IP地址)? 如果每个负载均衡服务器具有不同的IP,那么两个负载均衡器(或10个负载均衡器或50或100)是如何接收请求的?

负载均衡的IIS。 我应该使用NLB,还是基于linux的反向代理或其他?

对至less2-3个运行多个.NET应用程序的Windows 2008 R2 IIS Web服务器进行负载平衡最好的方法是什么? 我的select似乎是: 1)基于硬件的networking设备负载均衡器,如Cisco CSS 2)Windows NLB 3)某种基于Linux的代理,haproxy或其他 这三台服务器在vSphere场中作为虚拟机,所以我有能力在高负载时克隆实例数。 我控制vSphere主机插入的交换机(Cisco 3750),但不控制交换机/路由基础设施。 (1)太贵了,可能是我的需要矫枉过正。 我已经包含了这个,以防有人在我现有的networking工具包中做出一个狡猾的方法,我怀疑。 (2)似乎是显而易见的“内置”选项,但似乎很复杂的networking接口,多播,以及其他似乎是不必要的复杂的事情。 这也是相当愚蠢的,因为如果开始抛出500错误或者出错,它不能从池中移除主机 (3)是最有趣的select,因为它似乎提供了最大的灵活性和可定制性,但不必乱搞networking。 但是,虽然我熟悉lighttpd等的反向代理function,但我不太了解HAProxy等其他选项,这些选项可能会提供更多。 你会去哪,还有什么我没有想到的?