我有一个集群负载平衡使用nginx与3后端HTTP服务器定义为上游服务器。 如果其中一个HTTP上游服务器引发HTTP 500错误,如何将nginxconfiguration为故障转移到群集中的下一个HTTP服务器?
如果我有2个子网,10.0.0.0用于我的进程,11.0.0.0用于数据库,我如何在子网内部负载均衡数据库,以便10.0.0.0networking中的任何进程都可以通过单个进程访问任何数据库实例内部IP像11.0.0.4? 所以11.0.0.4会负载平衡,假设3个虚拟机在11.0.0.5,11.0.0.6和11.0.0.7。 给出的IP地址纯粹是为了说明这一点,我明白,实际完成时,它们可能会有所不同。 或者是为数据库服务器build立完全独立的虚拟networking并将两个虚拟networking连接在一起的更好的解决scheme。 如果是这样,你会推荐什么configuration? 我想避免出去到互联网,只能再次回来从进程访问数据库。 速度是至关重要的,所有的机器都在同一个地区。 如果有任何帮助,所有机器都运行Ubuntu 15.10。
我正在使用以下configuration进行设置 负载平衡器 – > Apache Web服务器(2) – >在tomcat上部署的应用程序(通过集群pipe理5个节点) 在已部署的应用程序中,我们确实有一些需要使用HTTPS模式访问的安全部分,我们试图通过在负载平衡器级别安装SSL证书来使用SSL卸载。 这里是Apache服务器configurationListen 80 <VirtualHost *:80> ServerAdmin [email protected] DocumentRoot /var/www/html/ ServerName prod.mysite.com LogLevel warn ErrorLog logs/prod.mysite.com-error_log CustomLog logs/prod.mysite.com-access_log common Include conf/sf.conf </VirtualHost> sf.conf ProxyPass /favicon.ico ! ProxyErrorOverride On ProxyStatus On ProxyRequests Off ProxyBadHeader Ignore ProxyPass / balancer://cluster/ ProxyPassReverse / balancer://cluster/ <Proxy balancer://cluster> BalancerMember ajp://xxx.xx.xx.xx:48009 route=node1 keepalive=On ping=3 retry=3 […]
短的背景 我已经build立了一小群Linux机器,并且正在创build和运行分布式计算的脚本。 现在已经得到了一些基本的东西,我正在调整我的脚本,尝试适应时序来做一些基本的负载平衡。 为了得到这个工作,我想我需要以某种方式同步这些机器。 题 如果我有一个作为存储工作列表和结果的通信平台的文件的samba共享。 有没有一些方法(最好内置到Sambaconfiguration或类似的东西),我可以使用服务器时间在“到达”samba服务器自动restamp文件? 自己的解决scheme发现迄今 有一个单独的桑巴服务器端脚本只是触及所有传入的文件,因为他们到达将给他们相同的相对时间。 如果我们需要知道samba服务器和客户端的相对时间,但是至less服务器可以比较时间,它仍然不能解决问题。
我有2个DNS服务器(Debian)configuration使用bind9和负载均衡器pipe理2个tomcat web服务器,我的问题是我应该把dns条目的2个tomcat web服务器,或者我只需要把loadbalancer? 谢谢
我正在尝试使用IP_VS内核模块的loadbalacing设置我的2网关configuration。 我需要负载平衡转发stream量到2个节点。 我做: 设置ip_vs fwmark服务并添加2个节点。 在每个节点设置networking防火墙规则来设置FWMARKstream量DestAddr != node_ip ; 但lvs_service没有检测到标记的stream量,也没有检测到负载均衡。 任何人都可以帮助正确的configuration? 这是所需的configuration/拓扑图:
您能否在资源pipe理器概念中对经典虚拟机和新Azure虚拟机进行负载平衡?
我目前在Amazon上运行MeteorJS应用程序。 MeteorJS有一个插件,允许每个服务器充当所述负载平衡器的负载均衡器或工作者。 当工作人员使用负载平衡器检入时,我可以毫无问题地启动任意数量的工作人员,并将其添加到池中。 我遇到的问题是扩展负载均衡器。 每个负载均衡器都需要一个有效的DNS Alogging。 我想,也许我会添加一堆指向IP地址的Alogging,如果我需要启动额外的负载平衡器,将使用这些logging。 不过,我担心的是,这会导致由于用户浏览器尝试多个地址而导致性能下降。 在您的主域后面有一个死的Alogging是不好的做法吗? 即 somewebsite.com loadbalancer1.somewebsite.com -> Online loadbalancer2.somewebsite.com -> Online loadbalancer3.somewebsite.com -> Offline loadbalancer4.somewebsite.com -> Offline 我希望亚马逊路线53能帮助我,但他们只提供故障转移服务。 理想情况下,这些指向离线服务器的logging将不会被发布
ParseLiveQuery依赖于Websockets。 更一般地说,这个问题可能是让Web套接字在AWS ELB后面工作。 我正在使用Elastic Beanstalk(EB)在AWS中configuration的新Parse Server。 EB在Load Balancer后面configuration了一个EC2实例,我们需要自动扩展才能工作。 分析服务器工作得很好。 我正在configuration我们的服务器来使用使用WebSocket的新的Parse Live Query实现。 本地我有一切工作。 如果我将LiveQueryClient直接连接到我们的一个ParseServer实例的公有DNS,我的iOS客户端应用程序将连接并工作。 例如http://ec2-xx-xx-xx-xx.compute-1.amazonaws.com 但是,我不太了解,为什么我们的LiveQuery代码无法通过Load Balancer DNS条目工作。 例如http://parseserver-xxxxxx-env.us-east-1.elasticbeanstalk.com 我得到一个404错误,如果我把客户端指向负载均衡器: Error Domain=SRWebSocketErrorDomain Code=2132 "received bad response code from server 404"
在我们的应用程序的性能testing中,我看到一个问题。 问题是LoadBalancer无法映射客户端和LB之间的tcp连接,而LB和后端实例之间的tcp连接。 当一个客户端首次发送一个http请求时,LB会打开一个带有后台实例的新的TCP连接,但是当同一个客户端发送另一个http请求时,LB也会创build一个新的与后端实例的TCP连接。 当我们执行相同的场景直接从客户端发送请求到后端实例,相同的TCP连接被重用。 我们对支持实例的每个进程打开TCP连接有限制,所以我们想知道以下内容。 为什么LB在向后备服务器发送请求时以及在哪里configuration时使用ip范围? LB如何将客户端TCP连接映射到后端TCP连接? 如果没有映射,则由LB施加的开放TCP连接的限制是什么。 如果连接由实例重置,则LB返回的响应代码是什么? 在备份服务器的SYN backlog队列已满的情况下,LB返回的响应代码是什么?