在互联网上关于负载平衡器本身高可用性的文章中,我们提到了一种使用虚拟IP(VIP)的方法。 在这种方法中,两个负载均衡器将保持主备模式。 活动的负载均衡器拥有VIP。 如果主动负载均衡器closures,备用负载均衡器使用一些心跳机制来检测故障并接pipeVIP,从而成为主动负载均衡器。 我的问题是: 在任何时候,只有一个负载平衡器正在提供所有请求。 如果传入请求的数量太多,会怎么样? 或者,像(HAProxy,nginx或任何硬件负载平衡器)这样的stream行负载平衡器所处理的请求数目太高而不能超过现实生活中的数量? 使用相同域名的负载均衡器集群是一个很好的select,这样DNS可以在向负载均衡器本身分配stream量时进行循环负载平衡? 通过这种方式,我们还可以通过dynamic添加或删除DNS服务器中的Alogging来实现负载均衡器的自动扩展。
这就是我的example.com.conf文件的样子 – upstream web_app_backend { ip_hash; server <app1 ip>:<port>; server <app2 ip>:<port>; } server { listen 443 ssl; server_name example.com; ssl_certificate /etc/nginx/ssl/example.crt; ssl_certificate_key /etc/nginx/ssl/example.com.key; return 302 http://example.com$request_uri; } server { listen 80; server_name example.com; location / { # First attempt to serve request as file, then # as directory, then fall back to displaying a […]
我已经在Azure Ubuntu 14.04LTS虚拟机上部署了一个NFS服务器。 我的2个NFS客户端位于Azure负载平衡器(也是Ubuntu 14.04LTS)之后。 当试图安装共享: mount -t nfs -o proto=tcp,port=2049 {serverIP}:/nfs_share /mount_point 我得到以下结果: mount.nfs: access denied by server while mounting {IP}:{share} 如果我从LBS客户端运行showmount -e {server-IP}它正确地列出共享。 从我的亚马逊服务器挂载NFS共享工作正常,所以我似乎没有服务器configuration或防火墙问题。 这似乎把它缩小到Azure的LBS客户端,但我不知道为什么。 任何指针将不胜感激。
我有一个应用程序在两个不同的AWS实例上运行,我希望启用基于IP的“sticky”或“persistent”会话,这样我就可以以特定的方式利用web socket技术。 我有两个不同的设置,都涉及使用ip_hash启用这些粘滞的会话。 在第一个设置中,应用程序进程与Nginxconfiguration在同一个实例上运行。 这是行得通的 ,会议如期举行。 upstream my_app { ip_hash; # local servers server 127.0.0.1:3001 weight=100 max_fails=5 fail_timeout=300; server 127.0.0.1:3002 weight=100 max_fails=5 fail_timeout=300; keepalive 8; } 在第二个设置中,我指向外部实例并试图达到相同的效果。 这个设置不起作用 。 换句话说,会话仍然是负载平衡的。 upstream my_app { ip_hash; # external servers server 111.11.11.11:3001 weight=100 max_fails=5 fail_timeout=300; server 222.22.22.22:3002 weight=100 max_fails=5 fail_timeout=300; keepalive 8; } 我正确使用ip_hash ? 如何为外部服务器启用“粘性”基于IP的会话?
当机器B接pipe故障转移场景时,我试图执行裂脑保护。 基本上我想强制机器A真的在机器B被激活之前,避免臭名昭着的裂脑场景。 所以我需要一个软件或者硬件解决scheme, 使我能够通过切割来远程高效地杀死机器A。 这是STONITH的方法,或者在头上拍摄其他节点。 如何做到这一点?
我想知道是否有可能从一个负载平衡器运行HAproxy(或磅或清漆或一些其他* nix为基础的平衡器)负载平衡两个站点。 我们有dev.site.com负载平衡到dev1.site.com和dev2.site.com和qae.site.com负载平衡到qae1.site.com和qae2.site.com,这将是很好,如果我们只有一台机器处理这两个非生产站点的负载平衡。 我一直在使用我们从主机获得的ZXTM平衡器,并且总是昂贵的,它不会在每台物理机器上平衡多个站点。 这是一个实际的限制,因为试图平衡端口80? 我认为ala apache的虚拟主机:80设置会有一个解决方法,但是再次,我不太熟悉networking。 谢谢!
我们在IIS7上有一个ASP.Net 3.5应用程序。 在我们的预览服务器上,它几乎可以即时获取和响应(从显示页面到1秒)。 我们有一个有5个Web前端和3个sql数据库集群的生产环境。 字体结尾是负载平衡Big5从循环赛f5。 前端和sql服务器之间有一个防火墙。 在生产中,我们在服务器启动响应之前正在经历45秒的获取。 根据上面的信息,罪魁祸首是什么? 先进的谢谢你。
我们使用双CPU的Windows 2003服务器和IIS得到飞越请求,不能处理它们,但同时它使用less于20%的CPU和不到40%的内存。 当服务器无法提供任何请求时,不仅无法浏览网站,甚至不能提供其他网站上使用的图像。 我们正在考虑安装VMWare,在这台机器上安装2台服务器,并使用一台服务器来提供asp.net页面,另一台服务器提供图片和简单的html页面。 你们知道我们如何将图像和html页面请求路由到一个服务器,并请求aspx页面到另一个? 任何想法都表示赞赏。 谢谢,丹尼斯
我们刚刚为新办公室完成了复杂的networkingdevise。 它有2个ADSL路由器连接到一个双WAN负载平衡器路由器。 负载平衡器连接到2个连接30台PC的16端口交换机。 另外一个16端口交换机连接到另一个16端口交换机,后者又连接到负载均衡器。 所以我的电脑有逻辑path:电脑>>交换机A >>交换机B [可选] >>负载均衡>> ADSL调制解调器[networking中可用的两个之一] 当我遇到一些奇怪的问题时,我决定运行诊断。 我的networking工作正常。 实际上,HTTP POST和FILE UPLOADS有时会超时。 跟踪路由到外部服务器(相同的输出我得到谷歌/脸书/等)。 酒花数量仍然是15。 [rtcamp@main ~]$ traceroute rtcamp.com traceroute to rtcamp.com (70.32.85.76), 30 hops max, 60 byte packets 1 * * * 2 * * * 3 * * * 4 * * * 5 * * * 6 * * * 7 […]
我正在使用asp.net 3.5和SQL Server 2008,并希望build立一个非常简单的networking农场。 我已经购买了2个VIRTUAL服务器,我不使用视图状态或会话在我的网页,只是cookies,所以我需要做的是有2个版本的相同的数据库,在每个虚拟服务器(我假设)和2个版本的二进制文件/每个服务器上的网页(我假设)。 我需要的是一些指导来设置这些,以便当用户提出请求时: a)服务器负载平衡,请求发送到负载最小的服务器b)每当SQL数据库发生更改时,它也反映在另一个数据库中 这听起来可能吗?