Articles of 负载均衡

Nginx负载均衡器挂在SSL上

我试图让nginx在我的Web服务器上进行负载均衡,同时在负载平衡器级别终止SSL。 我正在使用的nginx.conf文件是基于所有的指导做这个确切的事情,但我不能得到它的工作。 当去标准的HTTP,负载平衡器工作正常。 但是,当试图通过HTTPS访问负载均衡器时,浏览器只是挂起,最终给出ERR_CONNECTION_REFUSED。 我在日志中看到没有错误,甚至在尝试HTTPS时在访问日志中看到任何错误,所以我不知道问题可能是什么。 我已经尝试了很多不同的configuration选项,包括尝试不同的SSL证书,PEM编码,捆绑证书等,都没有效果。 这是nginx.conf的主要部分: upstream backend { #web01 server 10.01.01.102; #web02 server 10.02.02.77; } #setup proxy proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; # standard http server server { listen 80; listen 4444; server_name *.example.com; location / { proxy_pass http://backend; } } #server for https requests server { listen 443 […]

负载均衡iptables

我正在尝试使用iptable进行负载平衡。 我正在使用virtualbox。 所有vm(debian)都在内部networking,IP是静态的。 我想将来自我的web服务器(apache2)的IP地址10.0.0.2:80请求路由到另一个networking上的服务器10.0.0.3:80和192.168.0.2:80 IP。 网关进行IP转发,它有两个接口eth0用于networking10.0.0.0和eth1用于networking192.168.0.0 。 负载均衡器具有IP 10.0.0.2 。 我尝试设置这个规则,但它不起作用: iptables -t nat -A PREROUTING -p tcp –dport 80 -m状态–state新-m统计–mode n -every 3 –packet 0 -j DNAT – 到目的地10.0.0.3:80 iptables -t nat -A PREROUTING -p tcp –dport 80 -m state –state NEW -m统计–mode nnth –every 3 –packet 1 -j DNAT – 到目的地192.168.0.2:80

API Gateway静态IP更改通知的行业标准SLA?

假定一个具有单个域名(例如api.mybigcompany.com)的“公共”API网关和一组分配给“东”托pipe设施的8个静态IP地址来负载平衡该域。 我的API使用者的一个子集需要将这些IP在他们的防火墙中列入白名单,这样他们的调用应用程序将只能访问这些IP,并且我已经承诺只返回DNS中的这些IP。 将来,我可能要在同一个设施或“西方”设施等地方扩大这个泳池。 当我需要更改IP池时,是否有任何“行业标准”SLA将更改pipe理通知交付给我的外部API使用者?

是否可以使用云中的虚拟服务器直接进行服务器返回DSR负载平衡?

如果我所有的液滴都来自同一个数据中心,是否有可能在云中进行这种负载均衡? 或者我需要某种物理设备来做这种第4层负载平衡? 如下所示: http : //blog.haproxy.com/2011/07/29/layer-4-load-balancing-direct-server-return-mode/ 我喜欢负载平衡器只是分配的想法,然后服务器直接向客户端回复请求。 这可能没有物理硬件,但像haproxy软件?

负载均衡器将https请求redirect到http

我们的系统pipe理员已经build立了一个负载均衡器来处理所有的HTTPS请求,并以HTTP的forms代理它们到服务器。 服务器没有HTTPS,所以LB和服务器之间的连接是不安全的,但连接到LB。 我从来没有见过这样的事情,我不确定这是做到这一点的正确方法。 实际的服务器不可公开使用,只能通过负载平衡器。 这足以让它安全吗? 可以绕过负载平衡器吗? 这是一个标准的技术?

ngx_stream_core_module和最终用户ip

比方说,我有一些服务工作在原始的TCP级别,我想添加一个负载平衡。 我试过使用ngx_stream_core_module 。 虽然TCPstream确实代理到后端服务器,但我发现了一些我无法解决的问题。 我的服务在node.js中写入,这是设置进程pipe理器的常用技术,比如pm2,它在消耗太多内存的情况下重新启动节点。 但是,这显然会终止所有连接的客户端。 我的期望是nginx将用户连接到上游的下一个服务器(也许它也是> 2016,但是),但我的连接只是closures。 我的服务需要最终用户的IP和远程端口来操作,但在应用程序套接字的remoteAddress和remotePort指向本地nginx实例。 也就是说,当我打印到缓冲区时,我看到127.0.0.1连接代理时,我真正的IP当我直接连接到节点。 我看到nginx支持一些configurationvariables(自v.1.11.2起),而$ remote_addr就是其中之一。 但我没有看到任何信息如何将这个variables转发到上游。 proxy_set_header指令在stream中不可用,因为TCP中没有任何“头文件”,所以它看起来没问题。 这甚至有可能吗? 我不是一个devops,而是一个编码器,所以我听说了haproxy,但是我不知道它是否可以解决这两个问题。 它可以? 为了testing,我用哑巴回声node.js服务器,所有的工作部分被缩小到 server.on('connection', socket => { socket.write(`Hello from ${instance}, ${socket.remoteAddress}:${socket.remotePort}\n`); }); 而我的nginxconfiguration的相关部分是 stream { upstream echo { server localhost:9000; server localhost:9001; } server { listen 8080; proxy_connect_timeout 1s; proxy_timeout 2h; proxy_pass echo; } } 最后我用netcat来检查一下东西。 // direct connect ~|⇒ […]

从HAProxy发送PROXY协议头

我可能已经迷失在这个主题的大量文档,但我想configuration我的HAProxy进程发送PROXY协议标头,如http://www.haproxy.org/download/1.8/doc/ proxy-protocol.txt 。 这是因为我不得不将PROXY协议的支持写入到C ++服务器(为了能够访问客户端IP /端口),并且我想testing我的代码是否正确地处理了PROXY头文件的parsing。 这是我最小的configuration文件: global maxconn 4096 defaults log global mode http retries 3 option redispatch maxconn 2000 timeout connect 5000 timeout client 50000 timeout server 50000 frontend TestServerTest bind 10.6.186.24:54781 mode tcp default_backend TestServernodes backend TestServernodes mode tcp # Note there is no 'check' after the below line unlike the others […]

如何基于完整的urlpath实现DNS IP

我知道DNS只能parsing域名,但让我解释一下我的问题,我想知道如何才能解决这个特定的需求。 我有一个要求营销,使世界网站融合成一个单一的领域。 例如,当你有: www.somedomain.com.mx www.somedomain.co.uk www.somedomain.co.jp 现在他们想要这个: www.somedomain.com/mx www.somedomain.com/uk www.somedomain.com/jp www.somedomain.com 但是由于我们有服务器在不同的位置由于延迟要求,他们希望: www.somedomain.com goes to the US Server www.somedomain.com/mx goes to the US Server www.somedomain.com/uk goes to the UK Server www.somedomain.com/jp goes to the Japan Server 我可以设置nginx作为反向代理,例如在美国: 来自日本的用户访问www.somedomain.com/jp。 Nginx在www.somedomain.com服务器(美国)回答,然后从日本服务器请求内容,然后将响应中继给日本用户。 所以: Japan user -> US nginx -> Japan server -> US nginx -> Japan user 这会导致更多的延迟。 […]

日志文件 – rsync – loadbalancer

我的服务器设置是这样的 服务器1,服务器,服务器3 server2和server3使用Rsync同步到server1 所有的负载均衡….. 我在这里的问题是我的应用程序日志文件正在被覆盖…..你们可以提出任何解决scheme

Linux防火墙+负载均衡器分配

任何人都可以推荐提供防火墙和负载平衡器的Linux专用分发(或设备)? 例如类似IPCop的东西,但也包含LB? 提前致谢。