Nginx的负载均衡策略是否可以自定义? 有两个站点A和BI需要20%的所有请求去A,其余的去B。这是可行的吗? 这个任务有更好的解决scheme吗? 谢谢, 亚历克斯
我尝试了Kemp和Coyote的入门级(〜2000 $)LB,并且对他们的performance感到满意,但是在这里得到了一些build议来查看www.loadbalancer.org,他们有类似的价格产品。 有没有人有机会在生产中使用它们,并可以给出任何build议,包括他们如何比较肯普或土狼? 谢谢。
我正在寻找最好的方法(主要是硬件方面)的build议,在预算(比如2000英镑到3000英镑)上build立一个高速负载平衡服务器集群来托pipeWeb服务,数据库服务器和通用文件系统。 所有在Linux上。 对于Web服务器,我知道我想用apache来设置IPVS,但我不知道花在硬件上的最佳方式。 我会设想有一台机器(理想的备份)接受来自互联网的请求,并在apache服务器arrays中对这些请求进行负载平衡。 arrays中的每个服务器都可以共享一个通用文件系统。 到时候,我会添加更多的服务器arrays,以增加容量。 系统在负载平衡器中始终是瓶颈。 我需要什么样的机器才能支持非常高/不那么高的stream量? 哪个更重要 – 处理器/内存 对于apachearrays中的机器,我要做什么 – 更多的处理器,更快的处理器,更多的内存等 – 这是最重要的,如果我打算添加更多的机器 为了提供可伸缩性(易于添加更多的磁盘空间)和性能(因为它也是一个瓶颈),实现共享文件系统的最佳方式是什么? 在这里我想要软件和硬件的build议。 每种不同任务的机器成本/性能估算。 任何有关这种交通量的想法,您可以使用此设置为给定数量的机器提供服务。
我在ubuntu服务器上用mod_jk设置了apache-tomcat集群。 我有FarmDeployer部署战争文件到集群中的其他Web服务器的一些问题,我有一些希望,因为我张贴,并得到FarmDeployer在这里工作。 战争部署人员完全可以从post的下面的configuration工作,但不能信任地工作,因为它有时会访问页面时出现404错误: <Host name="localhost" appBase="webapps" unpackWARs="true" autoDeploy="true" xmlValidation="false" xmlNamespaceAware="false"> <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"> <Channel className="org.apache.catalina.tribes.group.GroupChannel"> <Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver" address="192.168.1.4" port="4000" selectorTimeout="100" maxThreads="6"/> <Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/> <Interceptor className="org.apache.catalina.tribes.group.interceptors.StaticMembershipInterceptor"> <Member className="org.apache.catalina.tribes.membership.StaticMember" port="4000" securePort="-1" host="192.168.1.2" domain="staging-cluster" uniqueId="{0,1,2,3,4,5,6,7,8,9}"/> </Interceptor> </Channel> <Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer" tempDir="/usr/share/tomcat/temp/" deployDir="/usr/share/tomcat/webapps/" watchDir="/usr/share/tomcat/watch/" watchEnabled="true"/> </Cluster> </Host> 以下是configuration(从tomcat集群文档)完美的HA和LB集群。 But it fails in Farm Deployer并且没有logging为什么农场部署者不工作。 <Host name="localhost" appBase="webapps" unpackWARs="true" autoDeploy="true" xmlValidation="false" xmlNamespaceAware="false"> […]
我有以下设置: 我已经在两个负载平衡器(HAProxy)之间configuration了高可用性,这样,如果HAProxy1发生故障,浮动IP将被转移到另一个负载均衡器HAProxy2,因此所有客户端都将从HAProxy2获得响应,HAProxy2在后端在两个web服务器之间的LB。 这是为了在只有一个HAProxy的情况下消除单点故障。 每当我停止在HAProxy1中的听力,浮动IP去HAProxy2。 但是我想要configuration这样的情况,即当process haproxyclosures时,浮动IP应该被分配给HAProxy2。 有人能告诉我如何实施它?
我研究了很多亚马逊Web服务的后端设置,特别是Instagram的。 在他们的Instgram工程博客上,他们提到他们如何在他们的三个NGINX服务器前面安装一个Elastic Load Balancer,而这些服务器是运行django / Gunicorn的应用程序服务器的前端,为什么这是缓冲? 如果是这样的话,那么如何将这些NGINX服务器连接到django / gunicorn应用程序服务器呢?
使用Elastic Load Balancer,在外部负载平衡器上设置SSL很容易,并将请求作为http提供给应用程序。 运行单个服务器时,也可以在Web服务器(Tomcat)或应用程序(Spring)上configurationSSL。 在使用负载均衡器运行时,是否需要将SSL拉高到负载均衡器的水平? 是否有一个SSL连接的状态元素将通过转发仍然encryption的stream量而丢失?
我有两台Windows 2012服务器,join了Windowsnetworking负载平衡群集。 我一直在试图find这些服务器之间如何交换NLB心跳消息(以确保它不会被生产系统上的任何东西阻塞),但一直没能find任何信息。 在我的testing系统上,我无法在两台服务器的任何一台上看到Wireshark的心跳消息。 所以问题是 – 我需要打开心跳消息的防火墙中的任何端口(或NLB工作所需的任何其他服务消息)? 心跳信息如何交换? 谢谢!
我们正在使用HAProxy v1.3在亚马逊的EC2中的许多Windows虚拟机之间进行负载均衡,并在实例稳定性方面遇到一些问题。 我们已经有了自己的监控,所以我们知道一个实例什么时候开始丢弃请求,或者开始更糟糕,但是其中一个问题是它可能偶尔会在短时间内开始工作,所以HAProxy认为它已经起来了,开始喂它的请求,只是让他们最终得到closures/超时,这成为一个大问题。 当它这样做时,实例在两个状态之间徘徊不到两分钟,所以我想知道是否有任何方法可以configurationHAProxy只添加服务器,如果它们一直持续一段时间(比如5分钟)。
我们有一个低负载但高可用性要求的Web应用程序。 它由一个单一的前端负载均衡器和一对后端服务器组成。 负载均衡器主要用于屏蔽故障,而不是传播负载。 后端服务器通过跨两个可用区域的复制而变得高度可用。 但是,如何使前端提示本身高度可用? 这是目前单一的失败点。 我们可能会使用AWS Elastic Load Balancing,但有点昂贵,我们再也没有真正需要负载均衡的部分,所以:您将如何以另一种方式解决这个问题? 接近的一个想法是用ping或心跳监视前端; 超时时,将前端的Elastic IP切换到另一台configuration为前端的机器。 我主要关心的是,弹性IP分配显然需要10分钟才能传播。 任何比这种方法更快的响应时间? 认为零停机是可能的? 以另一种方式旋转这个问题:您将如何在常规的自托pipe数据中心中完成此任务,而您没有AWS Elastic Load Balancing?