Articles of 负载均衡

如何在谷歌云平台上将域名映射到负载平衡器?

我已经成功地在谷歌云平台上build立了一个负载平衡器 如果我使用图中所示的IP,我可以testing并确认设置正在按照我的计划进行。 现在我想将一个域名映射到IP。 我想使用www.mycompany.com 。 我已经在我的DNS中创build了一条Alogging,指向1.2.3.4 。 但是,域名给出了一个404错误。 我相信我需要将这个新的域名与IP地址相关联。 在load balanceing或external IP addresses屏幕上没有明显的位置。 我在哪里可以做到?

如果不健康,请重新启动Google Compute Engine实例

运行状况检查可以根据特定的http请求来检测我的实例,并确定它是否不健康。 从文档我undertsand和autohealing只适用于托pipe实例组,这意味着一个不健康的实例将不会重新启动,但closures,并从模板创build另一个实例。 所以这意味着磁盘上的状态数据将会丢失。 有没有办法在不使用模板的情况下从健康状况检查中触发实例重启(因此只能重新启动并保留磁盘数据)。

我可以调用后端服务而不是GCP中的实例吗?

Google云端平台项目中有几个计算引擎实例。 一个是我的API“api-inst”,在后台服务中:api-service一个是我的db2db-inst“,在后端服务中:db-service 它们都可以通过负载均衡器调用。 有时API需要调用数据库。 我希望这些电话在内部处理,以达到性能目的。 但是我可能在db-service中有几个db实例,所以我不能通过内部IP进行调用 所以我想知道是否有办法让我的电话直接到后端服务?

Nginx直接从服务器负载平衡stream量到客户端

我正在尝试设置一个Nginx负载平衡器,将stream量直接发送到客户端,而不是通过负载平衡器。 upstream backend { server backend1.example.com weight=5; server backend2.example.com; server backend3.example.com backup; } 我发现的所有教程都在使用; server { location / { proxy_pass http://backend; } } 任何想法如何我可以存档我在找什么? 例如我想在这里存档

如何在AWS中将负载均衡器与ACL相关联?

我读了这个http://docs.aws.amazon.com/waf/latest/developerguide/web-acl.html 我读到ACL可以与云端以及负载平衡器相关联。 我可以findcloudfront的教程http://docs.aws.amazon.com/waf/latest/developerguide/tutorials-rate-based-blocking.html 但是我无法find任何关于ACL与负载平衡器的教程。 我也无法在AWS控制台UI上find相同的选项。 任何帮助。

共享IP托pipe平台上托pipe的域HAProxy后端路由

我已将我的域名托pipe在共享IP托pipe平台中。 我在Google Compute Engine上configuration了HAProxy来传输stream量。 但是当我尝试访问HAProxy服务器IP时,我得到了我的共享主机平台默认页面(当我们尝试通过IP地址访问网站时,就像CPanel默认页面一样)。 这里是我在HAProxyconfiguration中添加的附加configuration: resolvers public-dns nameserver dns1 4.4.4.4:53 nameserver dns2 8.8.8.8:53 frontend http bind *:80 stats uri /haproxy?stats default_backend site-backend backend site-backend mode http balance roundrobin option httpclose option forwardfor reqadd Host:\ app.domain_name.com server mysite app.domain_name.com:80 resolvers public-dns check inter 1000 resolve-prefer ipv4 如何使用HAProxy获取正确的网站?

代理之后的Logstash不起作用

我试图在代理之后启动几个Logstash实例。 我正在使用nginx,但HAProxy也是一个选项。 worker_processes 4; events { worker_connections 1024; } http { upstream streams { server logstash_ip:5044; } server { listen 80; location / { rewrite ^/(.*) /$1 break; proxy_ignore_client_abort on; proxy_pass http://streams; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header Host $http_host; } } } logstash_ip是一个别名,它是可以parsing的。 问题是,当我将一些日志直接推送到logstash时 – 一切正常。 当我通过Nginx推送日志时,它失败了: 使用端口浏览Nginx会导致502网关错误 Logstash日志 发布事件(重试)时发生错误:lumberjack协议错误

整个子网的LoadBalancing

是否可以configurationHaProxy来平衡整个子网的stream量。 我试过192.168.50.0/24,但HaProxy得到错误。 这是为了云环境,所以如果我的服务器向外扩展,我不需要手动重新configurationHaProxy并重新启动服务。 我的configuration: listen Cluster_3300 bind *:3300 mode tcp timeout client 10800s timeout server 10800s balance leastconn option httpchk option allbackups default-server port 9200 inter 2s downinter 5s rise 3 fall 2 slowstart 60s maxconn 1424 maxqueue 10000 weight 100 server app1 192.168.51.11:3306 check server app2 192.168.51.13:3306 check server app3 192.168.51.12:3306 check 所以最后3行是硬编码的,是否可以包含所有的子网虚拟机?

起搏器 – 在断开接口后,集群不会传递到另一个节点

我有Corosync + Pacemaker的下一个场景 节点1: eth0:10.143.0.21/24 eth1:10.10.10.1/30(Corosync通信) eth2:192.168.5.2/24 节点2: eth0:10.143.0.22/24 eth1:10.10.10.2/30(Corosync通信) eth2:192.168.5.3/24 浮动IP的 eth0:10.143.0.23/24 eth2:192.168.5.1/24 接口eth1仅用于corosync通信。 例如我断开networking电缆从接口eth0,但没有任何反应,其他例子我断开networking电缆从接口eth2,我有相同的结果,但我断开networking电缆从接口eth1(corosync通信)和浮动IP的传递到其他节点。 断开资源传递到另一个节点的任何接口时,我该如何做? 问候 UPDATE 我testing了以下设置 crm configure primitive PING-WAN ocf:pacemaker:ping params host_list="10.143.0.1" multiplier="1000" dampen="1s" op monitor interval="1s" crm configure primitive Failover-WAN ocf:heartbeat:IPaddr2 params ip=10.143.0.23 nic=eth0 op monitor interval=10s meta is-managed=true crm configure primitive Failover-LAN ocf:heartbeat:IPaddr2 params ip=192.168.5.1 nic=eth2 op monitor […]

我的testinghaproxy服务器可以加载生产服务器吗?

我有一个haproxy服务器,它平衡了三个生产服务器(由于我不明白的原因) 源algorithm之间的负载。 其中一个不断进入状态,虽然它不正常工作,haproxy没有发现这一点。 因此,我的网站出现了一些人。 我有一个testinghaproxy服务器,它平衡了一些testing服务器上的负载。 我想testing一下其他的haproxy.cfg来查看是否可以检测到有问题的服务器。 但是,这个故障是间歇性的,我不能重现它 – 我必须等到自然发生。 我想我可以testinghaproxytesting服务器,让它平衡负载在有故障的生产服务器上。 但是,这将不得不与生产haproxy服务器同时发生,以便发生故障。 然后我可以看到testinghaproxy服务器(具有不同的haproxy.cfg )是否已经发现它。 但是,作为一个完整的初学者,我不知道是否让两个haproxy服务器平衡同一个(生产)服务器上的负载是可能的/明智的/确实是一个非常愚蠢的想法。