Articles of 负载均衡

有关负载平衡的问题

正如标题所说的只是一个关于负载均衡的简单问题 阅读以下文章: http : //www.linux.com/archive/feed/46735 它让我思考…我们目前有一个DFSR网站,目前正在重新映射客户端networking驱动器到他们最近的位置。 我知道这不会是理想的,但可能为DR / BC的概念certificate。 您可以使用SMB文件共享端口来设置Linux负载均衡器来平均分配服务器之间的连接吗? 即客户端 – > Linux LB服务器 – >其中一个文件服务器

使用NLB以最less的停机时间从单个IIS迁移到Webfarm?

假设我们网站的IP是1.1.1.1,我们要build立NLB,最好是将1.1.1.1设置为虚拟IP – 可以搞砸了,导致停机… 最好将虚拟IP设置为1.1.1.2,然后一旦validationNLB工作,更改DNS将Alogging指向1.1.1.2而不是1.1.1.1? 有没有另一种解决scheme,你会怎么做?

戴尔iDRAC快递和Broadcom团队

我有一些戴尔服务器,我正在尝试configurationBroadcom NIC小组并使用iDRAC 6.似乎在安装Broadcom智能负载平衡(TM)和故障切换(SLB)团队时,我松开了与iDRAC的连接,戴尔代表说,这可能是Broadcom BACSlockingLOM。 有没有办法兼得? Team Software: BACS3 Version 12.2.9.0 NICS: BCM5709C

任何使用Chrome的JavaScript引擎的负载均衡器?

F5有TCL这是可怕的编程。 A10复制。 有没有任何可编程的负载均衡器在向前看? Node.js似乎已经开辟了道路,并certificate了它的工作原理,Google将继续保持JIT的前沿。

帮助 – 由于向我的EC2 Web应用程序添加弹性负载平衡器,我无法连接到MySQL数据库(不在AWS中)

我有一个Web应用程序使用EC2实例接收上传的图像,resize和存储在S3上,并更新我的MySQL数据库的图像logging。 该数据库位于Amazon Web Services外部,显然涉及EC2实例和数据库之间的通信。 图像从Flash客户端发送到上传服务器,当它被加载时接收上传服务器的IP地址,因此将图像发送到1.12.23.34/resize_script.php 这工作很好..直到我开始尝试,并包括一个负载平衡器。 由于ELB不使用IP地址,而是使用DNS地址,所以我现在将其传递给Flash。 现在,当我上传图片时,我从服务器获得以下响应 – 无法连接到MySQL:在“读取初始通信数据包”时丢失与MySQL服务器的连接,系统错误:111 什么可能导致失去连接到MySQL服务器。 是否有任何额外的步骤,我需要采取让我的上传服务器负载均衡? 我已经将此用户的MySQL特权的​​主机属性设置为% 任何指针非常感谢,谢谢。

有关大型网站的负载分享

我有一个关于大型网站负载分担的问题。 我的理解: 所以,如果你有一个网站,每天有几百万的适合,你将需要有一个架构,可以支持这种压力。 你可以做一两件事: 投资一台拥有大量处理能力,内存和存储空间的大型服务器(如微软的TerraServer)。 将网站的负载分散到多台机器上。 让我来解决第二种方法,这样你就拥有了一系列运行Web服务器软件的机器,并且都可以访问相同的网站页面。 您可以使用DNS中的循环模式将负载分散到这些机器上,也可以使用Load Ballancing Switch。 这种方法的优点是: – 冗余 – 服务器可能会失败,其他服务器会“挑起冗余” – 增量 – 能够轻松地将新机器添加到这个设置。 我的问题 现在有没有虚拟的方法解决这个负载均衡问题? 如果网站从数据库运行 – 是否仍然只有一个数据库的副本? 如果用户在一台服务器上运行了一个会话(例如,他们去了www.example.org并被分配到了服务器2,他们是否创build了会话),如果他们刷新了网站(并分配了服务器3)还有他们的会议? 与负载平衡相关的其他缺点是什么?

您的集群节点之间的防火墙在后端进行通信有多严格?

我有一个使用HAProxy的群集中的3个Apache服务器。 目前,我允许在3台服务器之间的后端IP上的所有stream量 – 我想只允许在HTTP端口(和memcached端口)上的内部数据包 – 这是顶部? 安全性好处是否超出了性能影响(是否有一个?)。 据我所知,加强防火墙之间的私人防火墙只会有利于从前端侵入其中一台服务器,从而阻碍攻击者在内部可以做的事情。 你是做什么? 谢谢

需要关于负载平衡+一些技术问题的build议/意见!

我有一个100TB服务器是这一刻(Ember模式),并运行几个Facebook应用程序。 服务器进展顺利 – 没有问题,没有停机时间。 问题是,我们正在开始扩展我们的Facebook应用程序,白天我们有3000个并发用户,跳跃得到更多:-)随着应用程序的增加,我们很快就期望有双倍的stream量。 我认为服务器不能支持这样的stream量,因为在高峰时间,我们会得到很多的时间和应用程序不可用。 起初我以为我有configuration的服务器错过,但慢慢我明白,也许这是服务器的限制,因为它只有8GB的内存,提高MaxClients在Apache将开始交换,因为它现在几乎已经满了。 我现在想的select是获得两个Hetzner – EQ10 – i7-980X – 24 GB和一个较轻的服务器/ VPS作为负载均衡器来尝试获得更好的连接。 所以我有几个问题: 1)aprox 2500用户是否是一台Apache服务器的限制? 瓶颈究竟是什么? 2)在1比1的比较中,i7-980X-24GB比XEON 3220-8GBperformance更好,记住一个是服务器和另一个桌面处理器? 3)我需要在两个EQ10-S之前放置什么样的服务器/ VPS /云,这样才能实现良好的负载均衡? 重要的是它支持所有的收入stream量,因为它只是redirect它,不是吗? 说10.000个并发用户。 我想从Liquidweb获得一个VPS作为LoadBalancer。 你怎么看? 我的预算是每月400-500美元。 谢谢大家的答案。

对于外部和内部stream量使用相同的负载均衡器

我们有一个负载平衡器,今天平衡两个轻负载的节点,我想知道是否有可能使用它的内部stream量以及(今天需要另一个负载平衡器)。 这意味着这个负载均衡器将保持平衡外部HTTPstream量,但也将平衡两个数据库之间的内部SQL查询。 有人使用类似的设置,或者这种方法完全不被推荐,甚至不可能?

在tomcat实例之间划分webapps

我在一个Tomcat中有300个webapps。 重启Tomcat还有一些其他的限制。 我有两个Web服务器在当前的Apache + Mod_JK + Tomcat设置中进行负载平衡。 这些服务器有足够的内存/准备向服务器添加额外的内存。 启动第二个Tomcat实例并在这两个Tomcat实例之间划分这些webapp是否是一个很好的解决scheme?