Articles of 负载平衡

绑定iSCSI连接Linux

简单问:我如何利用目标和发起者两个或更多的以太网接口 有故障转移 使用所有接口的带宽 答案? 我的设置:两个系统都运行linux,并且每个多个NIC连接到相同的swtich。 发起者使用一个目标。 提前感谢 迈克尔

Apache负载平衡器日志logging问题

我正在使用Apache作为负载平衡器,并希望logging负载平衡器将请求转发到的服务器。 例如,如果我有三个Web服务器,称为: webserver1 – 192.168.0.1 webserver2 – 192.168.0.2 webserver3 – 192.168.0.3 我希望日志告诉我哪个服务器的请求被注销(以粗体表示 ): 10.1.0.1 192.168.0.1 – [20 / Jul / 2010:10:52:01 -0600]“GET /js/shared/kobj-static.js HTTP / 1.1”302 236“ http://www.google。 com / search?q =烘焙+ bbq + rib +食谱&ie = utf-8&oe = utf-8&aq = t&rls = org.mozilla:zh-CN:official&client = firefox-a “”Mozilla / 5.0(Windows; U; Windows NT 5.1 ; en-US; […]

使用负载均衡器时有多less带宽?

这个问题是专门针对Rackspace的,但是我想它也可以应用于AWS等。 假设我有以下几组机器:1个负载平衡虚拟机,2个Web虚拟机和一个数据库虚拟机。 如果数据库只能通过networking机器访问(通过内部IP,带宽使用是免费的),并且networking机器只能通过内部IP(再次,免费)通过负载平衡器访问(由公众),这样做意味着我实际支付的唯一带宽是来自负载均衡器的input和输出? 我有这个权利吗?

反向代理服务器云架构(AWS + nginx)

目前我使用nginx + fastcgicaching响应。 我正在将我的应用程序迁移到AWS。 我构build了一个水平缩放的方法,但试图确定哪里最好把nginx + fastcgicaching。 我从我自己的研究中发现了一些解决scheme,都有明显的缺点。 使用AWS Elastic Load Balancer来平衡一组Web应用程序。 每个Web应用程序都运行它自己的nginx和Web服务器堆栈。 缺点:每台服务器上的caching需要加热 。 最坏的情况1 / n的命中率。 将nginx + fastcgi放在AWS ELB的前面,这样caching就集中在最高点。 缺点:单点故障 – 如果nginx死亡stream量不通过ELB。 增加了nginx实例。 我将不胜感激任何克服上述缺陷的常见体系结构的build议。

Amazon ELB和Nginx服务器上的多域

我有一个EC2实例运行Nginx的几个域。 我的configuration是这样开始的: server { listen 80; #disable_symlinks off; server_name _; #allow few domains #Adding 'www.' to url in case it doesen't if ($host !~* ^www\.) { rewrite ^(.*)$ http://www.$host$1 permanent; } location / { if (!-e $request_filename){ rewrite ^(.*)$ /index.php; } index index.html index.php; } 我不知道在ELB(亚马逊)上使用哪个pingpath,因为如果我尝试HTTP,实例总是失败。 如果我尝试TCP(端口80)ping成功。 我必须使用HTTP,因为我想使用粘性。 有什么build议? 谢谢,丹尼

HAProxy – 根据url_parameter进行平衡

我有2个不同的tomcat服务器:T1,T2 引用我的负载平衡器的客户端提供了名为“gender”的url参数(0表示男性用户,1表示女性用户)。 男性和女性之间只有url参数不同。 我想根据性别参数与haproxy平衡到T1,T2。 (男性将被redirect到T1,女性被redirect到T2) 我如何实现这一目标? 谢谢

将有3个服务器+负载均衡器在我的情况帮助?

我想升级我的服务器,因为MySQL的负载过高导致缓慢+每当在数据库上运行备份进程,数据库将无法访问,所以想要一些解决scheme。 我目前的服务器是8GB RAM的Opteron 2212。 我的networking主机提出了一个较低的configuration服务器(Phenom Hexacore与8GB内存),但采取3服务器+负载平衡器…他们说,这将有助于在stream量高的情况下,也有助于当一台服务器失败,那会有一个备份服务器。 进一步询问他们说,没有MySQL复制将build立,因为他们收取额外的,但仍然能够configuration一个设置,将满足我的需求。 我真的不确定,如果我有3个这样的服务器,没有mysql复制,我的升级目的是否会实现?他们不清楚如何设置它。 任何想法,这是否是一个好的解决scheme,我可以向他们提出什么?

http loadbalancer单点故障的低成本解决scheme?

我有一个启动项目的许多低端primefaces服务器,每个服务器有几个公共IP地址(没有专用networking)。 我目前正在使其失效安全。 现在我的http服务器前面有一个负载平衡器。 这个负载均衡器在这一点上是一个单一的故障点,当它失败时,一切都变得无法到达。 我想知道是否有一个低成本的解决scheme,以消除单点故障? 我研究循环DNS,但它是相当不可靠的。 另外,当您访问硬件并连接networking电缆时,我会查看心跳看起来像一个很好的解决scheme。 但在我的情况下,我不能连接networking电缆或添加硬件。 我只有root权限,可以安装软件并重新configurationLinux。 更新 感谢您的答复,我很感激。 但是,当使用心跳或Keepalived时,您的服务器需要2个网卡,我的服务器只有1个。那个网卡是主网卡。 我不能使用主要的,因为当它获得高stream量的心跳通信可能会失败(并触发关机)。 我不想要:) 有没有其他的select?

共享Linode之间的带宽

我有5个linode实例,其中大多数是适度使用。 最近我打开了一个占用大量带宽的站点,并且其交通费用正在stream失,而我已经分配给那个林德(200GB /月)的宝贵的几个gb。 有没有办法在所有的实例上build立同一个站点并共享带宽? 有点像负载平衡器…

连续删除和重写的硬盘驱动效果

连续写入和删除磁盘上的文件有什么影响? 具体来说,这些文件是否继续被写在最近清空的空间,或者是否有某种平衡机制来平衡驱动器上的磨损? 关于我的情况的详细信息:我有一批性能testing机器,它们不断地将数据写入各自的磁性硬盘或从其中删除数据。 我保持replace可用,我不担心数据丢失,只是可用性和驱动器之间的可比性能(我不能切换到SSD)。 有什么我可以做的,以延长这些驱动器的寿命,或不均匀磨损恒定r / wtesting的必要结果?