我们有一个OpenStack设置,负载平衡器将stream量引导到默认池(在这种情况下,我们称之为green_pool)。 在部署期间,我们将新构build放置在非活动池(blue_pool)上,并在访问它之前完成最终testing,然后再引导实际stream量。 在我们切换到OpenStack之前,我们在f5平衡器中进行了configuration,使我们能够将请求指向非活动池以完成最终testing。 但是,现在我们没有这样的configuration。 OpenStack中有一个聪明的方式来访问非活动池吗? 我读了关于创build一个浮动IP池与下面的选项,但我想知道是否有一个更好的方法,因为我们已经有一个池: neutron net-create ext-net — –router:external=True SPECIAL_OPTIONS neutron subnet-create ext-net –allocation-pool start=FLOATING_IP_START,end=FLOATING_IP_END –gateway=EXTERNAL_INTERFACE_GATEWAY –enable_dhcp=False EXTERNAL_INTERFACE_CIDR
我一直在尝试设置Google Seesaw ,它是一个基于LVS的负载平衡器,但是依照[index.md和/doc/getting_started.md]的说明,至今还没有成功。 这是很清楚地表明,没有支持,所以我明白没有从github页面得到太多的反馈,但我会感谢任何指导。 我一直无法启动跷跷板服务,但发出一个systemctl status seesaw_watchdog显示除了seesaw_engine之外的4/5服务正在运行,并且检查日志似乎不能识别我的cluster.pb文件中的后端条目,尽pipe它是一个必需的字段我明白了(我只是编辑了这里find的例子)。 任何指针赞赏。 谢谢。
我正在查看显示EC2实例的CPU负载的graphics。 我发现当1个EC2 CPU增加2个时,它同时减less。 经过一段时间(5分钟)后,他们改变了1减less和2增加,5分钟后他们再次改变,等等。 问题 这是否意味着aws ELB在一段时间内向实例发送请求? 例如10个1个实例,然后10个另一个? 或者它路由批量请求? 例如前100个到1个EC2和下个100个到2个等等? 文件说aws ELB使用循环法 。 但是我认为,如果他们把每一个请求都传递给下一个实例,那么就不会有不同的方向,例如所有的实例加载在负载上都会有1-2%的差异,但是有相同的趋势(增加或减less)。 我对吗? 这个图表就是这样的(大约18个EC2,剩下的就是CPU负载百分比): 更新 它是经典的负载均衡器 有2个可用性区域,每个区域每9个实例。
我正在玩GCP负载平衡,并希望将HTTPredirect到HTTPS链接。 但无法弄清楚。 我的负载平衡看起来像: Load balancer name Front End: Protocols IP Certificate HTTP xxxx:80 – HTTPS xxxx:443 example-com Back End: Hosts Paths Backend example.com /* webs-backend 我的web后端是一个简单的nginx web服务器,它监听TCP / 80端口。 Nginx服务器configuration: server { server_name example.com; root /var/www/html; <snip> } 现在使用这个GCP负载平衡设置,我可以访问HTTP和HTTPS,尝试configurationNginx发送密码301redirect到HTTPS,它将无法正常工作。 太多的redirect。 问题是,我如何configurationGCP负载平衡将HTTPredirect到HTTPS?
在使用负载均衡器时,我知道使用SSL终止会导致后端服务器将所有连接视为来自负载均衡器本身。 但是,我不确定SSL传递是否也是如此。 由于SSL直通在TCP层运行,它仍然会在后端服务器上看到实际的始发IP地址吗?
我的ESXi主机连接到两个交换机,如图1所示 。 当我将中继的负载均衡方法configuration为“IP-Hash”时,虚拟主机在端口通道组之间震荡: 21-07-2017 09:00:45 Warning (4) SW_MATM-4-MACFLAP_NOTIF Host 0050.5688.1141 in vlan 60 is flapping between port Po1 and port Po3 如果中继configuration为通过src-MAC进行负载平衡,那么虚拟主机不会再振荡。 但是我没有得到IP-Hash负载平衡方法的好处。 有没有人知道由于MAC拍动造成的性能损失有多大? Backup-Question:是否有一种“支持”的方式将两台交换机连接到两台没有VDS的esxi-host(VMware ESXi 6.5)?
我得到了Haproxy LB,包含1个前端,1个后端和2000个以上的代理服务器。 Haproxy充当反向代理(网关),请求被传递给其中一个服务器。 我试图根据Haproxy主机名来制作一个粘性,但是是一个通配符。 例如:DNSlogging: A lb.example.com xxx.xxx.xxx.xxx A *.lb.example.com xxx.xxx.xxx 两个logging都是一样的Haproxy。 我想捕获通配符主机,并使用粘性表来匹配它。 例: session-1.lb.example.com -> server 1 session-2.lb.example.com -> server 2 主要的问题是我找不到捕获haproxy主机名的解决scheme,就像Apache / Nginx中的虚拟主机一样。 hdr(主机)表示请求的主机,而不是haproxy主机名。 任何想法如何捕获haproxy主机名? 它必须是dynamic的,新的虚拟主机 – 新的任务。 谢谢 :)
对于运行SSL直通的NetScaler负载均衡器,循环负载均衡algorithm是否有任何方面可以将更多stream量引导到响应更快的主机? 作为一个具体的例子,负载平衡器将stream量导向五台主机,四台平均响应时间为2000毫秒,一台在三秒钟内快速响应。 快速失败的主机收到约99.9%的请求。 我的理解是,循环赛,主机应该只收到1/5的stream量。
我想使用HAProxy作为反向代理,并从path中取回后端主机: http://haproxy/web1/index.html – > http://web1/static/index.html http://haproxy/web2/index.html – > http://web2/static/index.html … 后端服务器是dynamic的,不应该被硬编码。 我设法用nginx来实现,但是我无法用HAProxy实现同样的function。 server { listen 80; server_name localhost; location ~ ^/(.*)/(.*) { proxy_pass http://$1/static/$2; } } 用HAProxy做这个是不是一个好主意,还是应该坚持用NGINX?
我发起了一个豆桶多容器实例,它的工作正常。 然后我尝试设置dynamic端口映射,并将主机端口设置为0.我允许ec2实例安全组的端口范围32768 – 60999,并且可以使用来自browser / curl的新分配的dynamic端口来访问nginx。 于是,我创build了一个ALB和目标组来支持ecs服务的dynamic端口。 就像我可以直接访问应用程序公开的instance_public_id:33084。 目前80端口上没有任何东西在运行。所以,下面的图片在这种情况下是有效的。 但是它应该在dynamic端口的情况下工作。 应用程序负载均衡器转发请求到上述目标组。 我试过的东西。 我进入实例并在端口80上启动了SimpleHTTPServer。在目标组端口80中,状态变为活动状态。 我也可以从负载均衡器DNS访问它。 设置:发送/ service /请求时发送电子邮件。 (目前没有电子邮件)。 虽然在打public_ip_instance:dynamic_port我收到电子邮件。 也试图允许所有在实例的连接安全组中的stream量。 仅供参考,我已将所有子网区域添加到ALB,并且所有内容仅在一个默认VPC中运行。 在这一点上,我的想法已经不多了。 任何工作都可以做?