我的情况相当简单,我想,这经常遇到。 我有几个项目都差不多 – 一个项目包括: 静态内容服务器 – 有一些体面的CDN解决scheme可以解决这个问题 前端HTTP服务器 – 应该接收传入的请求,将其分发到后端服务器,获取答案并将其发回给用户 后端HTTP服务器 – 可扩展,在全球范围内正确分布 数据库服务器/ NoSQL服务器/无论存储数据 这里的问题是(2) – 前端服务器。 我们正在使用多种技术来提供前端的容错和负载均衡,即: DNS轮询和DNS区域切换 – 在负载平衡方面并不那么好,在发生故障后恢复非常缓慢(即在1分钟的TTL时间内,DNS区域的切换至less需要15-20分钟) BGP交换 – 相当昂贵,需要大量的组织工作(即至less获得/ 23块IP地址),在两条以上的path之间切换并不实际 BGP任播 – 基本上也相当昂贵和复杂 在路由器上使用VRRP / CARP切换同一数据中心内的服务器是最可行的select,但由于单个数据中心是SPoF,因此不能真正实现容错 想想看,我认为这个问题必须有一个现成的SaaS解决scheme。 我为下一个项目所梦想的就是这样做: 创build后端,将其部署到全球,准备好IP地址 买一个域名 注册一个外部服务,将: 向我提供我将指向我的域名的IP 有一个保证的Web服务器在这些IP(s)一直在监听 监视我的后端 将请求转发到负载最小的工作后端(理想情况下,使用某些地理/networking延迟原则调整负载平衡策略) 从后端获取响应并将其发回给用户 我做了功课,发现有几种可用的负载均衡SaaS解决scheme: Amazon CloudFront – 但它不是一个真正的前端转发器 ,而是一个前端服务内容(即基本上是一个CDN即服务) 亚马逊弹性负载平衡 – 似乎是我正在寻找,但它不适用于非EC2托pipe的后端 Azure似乎包含某种“负载平衡器”,但它也只适用于Azure托pipe的服务器 RackSpace云负载平衡器似乎也只适用于RackSpace托pipe的后端 Storm Cloud负载均衡器似乎只能在Storm托pipe的服务器上运行 […]
早上好人 你能帮我解决下面的问题吗? 我有一个DNS负载均衡机制和别名(hostAlias),可能指向host01或host02 我想configurationapache和shibboleth来处理这个别名。 会发生什么… 用户types: https://hostAlias (指向host01)apache host01:redirect到shibboleth shibboleth host01:redirect到**https://hostAlias.cern.ch/Shibboleth.sso/ADFS** 现在有两种情况。 这次hostAlias会再次指向host01,否则它将指向host02。 如果指向host02,则host01不会获得安全性,authentication失败。 另外,关于SSL证书,我猜每个主机都需要自己的证书。 对 ? 我需要使用DNS别名的证书吗? 提前致谢 !
我会问你是否HAProxy负载平衡器可以实时注入(不重新启动平衡器重新configuration),而不会丢失连接。
我有三个负载均衡器( LB1,LB2,LB3 ),并计划使用环形架构进行主动 – 主动设置,例如 LB1 LB2 LB3 IP1 IP2 IP3 想法如下: 如果LB1失败,IP1将被浮动到IP2 如果LB2失败,IP2将被浮动到IP3 如果LB3失败,IP3将被浮动到IP1 上述设置是否共同? 任何潜在的问题? 或者更好的build议三个节点设置?
我希望有人能给我一些帮助,因为我对Nginx来说很新。 提前致谢。 前提:我在一个testing环境中有一个负载均衡服务器(nginx upstream),两个web服务器之间的负载平衡。 我使用fail_timeout参数,因为如果一台服务器出现故障,由于两者之间的数据完整性问题,我不能重新引入,直到我手动干预。 问题:我需要知道有问题的服务器已被取出循环。 电子邮件可能会问太多,但任何事件,我可以触发将是非常有益的。 注意:虽然我有系统监视服务器,如果出现故障,应该通知我,但是当Nginx“认为”某个服务器发生故障时,如果负载平衡服务器无法联系给定服务器,则更加重要。无论出于何种原因,监测系统都可以。
我是Monit监控系统的新手。 我们可以加载平衡mmonit收集器(两个实例),以避免单点故障。 我的意思是,如果监控器(实例)停机,整个监控系统将会下降。 请build议。 谢谢。
我需要一个消息传递服务来成为我的客户和我的服务器之间的一个代理,它满足了这个要求: 与客户同步工作 发送他们的请求,并从服务器asynchronous获得他们的答案(就像发送请求作为消息,并给出答案作为另一个消息)。 所以它应该记住请求ID来知道把答案发送给哪个客户端。 在服务器之间进行负载平衡,同时向它们发送请求, 有什么软件/硬件吗? 我更喜欢开源软件。
我有一个在Rackspace上运行两台服务器的RackSpace云负载平衡器我想让这两台服务器离线对它们进行一些维护。 我的问题是,在我的服务器closures的情况下,显示维护页面的最佳方式是什么?
我正在做关于Windows Server 2008 – 单播模式的NLB(networking负载平衡)的实验室。 但我无法理解数据包是如何通过networking传输的 http://technet.microsoft.com/en-us/library/bb742455.aspx http://technet.microsoft.com/en-us/library/cc782694.aspx 在这个参考。 他们说: 如果集群主机连接到交换机而不是集线器,则由于第二层交换机希望在所有交换机端口上看到唯一的源MAC地址,因此使用公共MAC地址会产生冲突。 为了避免这个问题,networking负载平衡(Network Load Balancing)唯一地修改了输出数据包的源MAC地址; 02-BF-1-2-3-4的集群MAC地址设置为02-h-1-2-3-4,其中h是集群内的主机优先级(在“networking负载平衡属性”对话框中设置)。 这种技术阻止交换机学习群集的实际MAC地址,因此,群集的传入数据包将传送到所有交换机端口。 如果群集主机直接连接到集线器而不是交换机,则可以禁用networking负载平衡以单播模式屏蔽源MAC地址,以避免泛滥上游交换机。 这是通过将networking负载平衡registry参数MaskSourceMAC设置为0来实现的。使用上游三级交换机也将限制交换机泛滥。 如果集群已连接到交换机,则传入的数据包将被发送到交换机上的所有端口,从而导致交换机泛滥。 有两台PC: PC1:192.168.2.1 PC2:192.168.2.2 虚拟群集IP:192.168.2.100 在我安装NLB之后,PC1和PC2的MAC地址被改为:02-BF-1-2-3-4(它们具有相同的MAC) 我尝试ping到192.168.2.100,PC1和PC2都收到ICMP请求? 但是交换机如何将传入的数据包发送到所有端口 ? 因为Switch期望看到唯一的源MAC ? 那么每个端口都映射到一个唯一的MAC ==>那么, Switch如何将传入的数据包发送到所有端口 ?
我想限制(通过iptables或其他)在80/443入站stream量来自我的负载平衡器的stream量。 我有公共IP(当然不会改变),但是我得到的唯一私有IP信息是一个范围(我正在使用Rackspace的“云负载均衡器”),我不希望有任何stream量进入除了我自己的负载平衡器(否则,有人知道我的服务器的IP可以创build一个云负载平衡器,并指向我的服务器)。 如果我使用公共IP,TCP握手不会造成很多延迟(与我的数据中心内部直接连接)? 当我遇到问题或更新时,我希望能够将服务器完全脱机,而不必在这些问题/更新期间弄乱底层networking垃圾。