我在一个位置有20台服务器,我想做负载平衡。 无论如何,这可以达到100。 有没有已知的方法来做到这一点? 我还希望有一些机制,当客户查询,如service.example.com,他将继续使用相同的服务器,直到机器由于失败从集群中取出。 客户端每分钟进行一次DNS查询,假设自上而下的DNSloggingTTL为30-60秒,其他时间可以在24小时左右,所以每次会话在初始查询后最长可以有效24小时,然后客户将切换到另一台服务器。 我发现L4-L7的负载均衡器相当无用,因为我想我只能使用DNS。 协议是仅基于二进制的TCP连接以及HTTP协议。 我在想,对于二进制连接(就像没有任何协议),我可以在DNS上使用循环,所以每次查询DNS时,我都会得到不同的响应。 对于HTTP这是我不知道的东西。 我可以把也许HAProxy就是这样,但对于DNS我不知道。 我曾想过以下方法。 发送客户到一些“master.example.com”,这是HTTP服务器只做redirect,这将生成唯一的FQDN,这意味着它就像一个会话ID。 这样,这个FQDN将总是parsing为相同的ip号码,并且只能用于为其查询的ip,在接下来的24小时或永远closures服务器。 所以这看起来像下面这样: http://redirect.example.com/resource => http://67hkkdbvh.example.com/resource 现在会议看起来像这样: 1st minute: http://67hkkdbvh.example.com/resource/1 TTL 60s 2nd minute: http://67hkkdbvh.example.com/resource/2 TTL 60s 如果67hkkdbvh将死亡,客户请求再次redirect。 现在我不知道如何使用HAProxy来帮助它?
如果我们有3个具有相同域名的Web服务器,并且每个都有不同的公共IP地址。 这个设置会带来最小的负载平衡吗? 当我们做一个google.com的查找它得到解决10 + ip.can这个安装程序可以带来一个类似的设置。
我从单个页面上获取了很多从Amazon S3加载的图像,有时花费相当多的时间来加载所有图像。 我听说从不同的子域分割图像将有助于并行下载,但是,实际的实现是什么? 虽然很容易拆分像静态,图像等子域; 我应该像10个子域(image1,image2 …)加载说100个图像? 还是有一些聪明的办法呢? (顺便说一句,我正在考虑使用memcache来cachingS3images;我不确定是否可以,我将不胜感激任何进一步的评论,非常感谢!
是否有可能在这个世界上实现DNS级别的负载平衡? 例如,我有一个服务器A(111.222.333.444)和服务器B(555.666.777.888),并且有一些第三方DNS托pipe(如CloudFlare),可以决定服务器A是否closures(或没有响应),然后转移所有stream量到服务器B.这不是一个真正的负载平衡,而是一个stream量转移,我不知道。 但是有可能吗? 我知道DNS传播需要时间,但像CloudFlare这样的服务几乎不需要几分钟就可以转移到其他服务器。 有任何想法吗? 谢谢。
我有一个API发送消息到RabbitMQ。 HAProxy后面有一个高可用性的RabbitMQ集群。 当我加载testing我的API时,我开始看到很多这样的: Recovering from a network failure… Exception in the reader loop: AMQ::Protocol::EmptyResponseError: Empty response received from the server. 在我的独angular兽的日志。 如果我通过haproxy直接连接到RabbitMQ,我不这样做。 我哪里错了,我的haproxyconfiguration如下所示: global log 127.0.0.1 local0 log 127.0.0.1 local1 notice #log loghost local0 info maxconn 4096 #debug #quiet user haproxy group haproxy defaults log global mode http retries 3 timeout client 50s timeout connect […]
我对安全性有一些担忧,想知道AWS将如何存储部署到ELB的SSL证书。 我有一个通配的SSL证书,用于我的域名,我想确保它不会在任何我不知道采取措施来保护它的地方持续存在。 我正在尝试在AWS上设置一个非常简单的映像服务器,它通过HTTPS提供服务。 我所做的就是在T2-micro上创build一个nginx服务器,它代表一个带有我的镜像的S3存储桶,放在ELB后面。 如果我把这个证书放在ELB上,那么证书最终会持续到哪里呢? 作为一个旁注,AWS实际上是否支持SSL卸载到ELB指向的实例? 我发现这个提示在一些文档中是可能的,但是找不到任何提示。
我现在有线互联网,但它在白天不时脱机。 我在家工作,这是一个问题。 我也可以得到DSL。 我需要什么硬件才能在两个连接之间添加备份互联网连接或负载平衡?
你怎么看lighttpd的AJP负载平衡? 我使用Apache和mod_jk为此,它工作正常。 将apache切换到lighttpd有什么好处? 什么软件用来平衡J2EE应用程序? 硬件负载平衡器? 谢谢!
我是一个习惯于能够testing和debugging代码的开发人员。 有时我必须对我们的负载均衡器configuration进行更改。 据我所知,如果我搞砸了,可能会停止整个网站的工作,但我们没有办法对其进行脱机testing。 人们如何testing这样的事情? 我希望能有一些我可以使用的模拟器。 或者是否有可能有第二个testingconfiguration? 我希望对我对负载平衡器所做的更改充满信心,因为我正在对自己的代码进行更改。 有没有人有他们用来testing他们的负载平衡器的testing套件? 更新 我们正在从一个后端移动到另一个后端,我们正在根据urlredirect用户。
我正在使用Apache的代理平衡器来平衡一个子域(例如subdomain.domain.com)到位于2个服务器上的应用程序。 这里是我的Apacheconfiguration文件的摘录: <Proxy *> Order deny,allow Allow from all </Proxy> <Proxy balancer://cluster1> BalancerMember http://server1:28081 route=w1 BalancerMember http://server2:28082 route=w2 </Proxy> ProxyPass /path balancer://cluster1/path ProxyPassReverse /path balancer://cluster1/path 我的问题是,如果可以使用源IP地址来决定哪个BalancerMember用于请求? 例如要求从1.2.3.4到成员1 ?