Articles of 负载均衡

nginx proxy_pass被忽略

我有一个作为代理服务器的Nginx服务器。 我还有3个不同的NodeJS Express服务器在端口8080,9090和8888上运行(所有端口均正常工作)。 服务器8080和9090执行相同的APP。 8888上的服务器当POST请求被转发时,应该返回“POSTING”。 GET和POST路由都为服务器8888正确设置,如果直接用CURL请求调用它们,我会得到正确的响应: import Express from 'express'; import BodyParser from 'body-parser'; // Initialise server const server = Express(); // for parsing application/json server.use(BodyParser.json()); // Setting port server.set('port', 8888); server.post('/', function(request, response) { console.log('POSTING'); response.send('POSTING'); }); server.get('/', function(request, response) { console.log('GETTING'); response.send('GETTING'); }); console.log(`Starting server on port ${server.get('port')}`) server.listen(server.get('port')); 我的Nginxconfiguration如下: upstream amit4got { […]

NGINX PROXY 0000 1204 0000 0000 0000 0300 0000 8000

在nginx上次更新之后,我所有的页面都得到了: 0000 1204 0000 0000 0000 0300 0000 8000 0400 0000 0000 0500 ffff ff00 0004 0800 0000 0000 7fff 0000 0000 0807 0000 0000 0000 0000 0000 0000 01 有一个带有jails的FreeBSD / 10.2-RELEASE-p17盒子。 10.10.10.1:80:Apache / 2.4.20 – 仅作为内部networking – 通用的虚拟主机 XX.XX.XX.XX:80:nginx / 1.10.0作为代理和负载均衡器到Apache24 – 这是公共的 内部networking工作(apache)testing所有文件: curl -I –header 'Host: myserver.com' http://10.10.10.1:80/ HTTP/1.1 200 OK […]

谷歌负载平衡+ Nginx的+ symfony2

我试图configuration一个可扩展的symfony2应用程序,所以我读这个页面https://cloud.google.com/compute/docs/load-balancing/http/cross-region-example 我做了他们所说的所有事情,正在使用一个简单的nginx conf: server { listen 80 default_server; listen [::]:80 default_server ipv6only=on; root /usr/share/nginx/html; index index.html index.htm; # Make site accessible from http://localhost/ server_name localhost; location / { # First attempt to serve request as file, then # as directory, then fall back to displaying a 404. try_files $uri $uri/ /index.html; # Uncomment to enable […]

是否有负载均衡器将终止GRE隧道?

我有一个networking,其中几个站点路由器通过GRE隧道发送部分stream量到检查设备。 我开始超过检查设备的能力。 我总是可以站在两个检查设备分而治之,但这并不能很好地扩展。 是否有一种负载平衡器可以终止我的GRE隧道,然后将stream量转发到检查设备上(平衡algorithm最好在GRE源IP内部进行散列)> 我已经习惯了负载平衡器,他们持有一个网页服务器的VIP,然后把stream量输出到后面的1 / n个网页服务器。 客户认为他们正在与networking服务器通话,但他们正在与LB交谈。 我正在寻找与GRE隧道相同的概念。 这可能吗? 我无法发布图片,但拓扑结构是: View post on imgur.com 多站点路由器有自己的一对169个地址和隧道。

Exchange 2016共存 – OWA不会在负载均衡器后面login

目前,我正在开发实验室环境,将混合的Exchange 2010和2013环境迁移到Exchange 2016。 我已经在实验室中运行了1x 2013和2x 2016,现在已经运行了好几个星期,并且运行良好 – 我已经完成了对RPC,OWA,ActiveSync和EWS的testing。 一切似乎都很好。 本周,我试图通过在前面引入负载平衡器来完成我的部署,计划在我的2013和2016 CAS节点之间提供循环LB。 从我所研究的2013年和2016年起,CAS完全兼容CASangular色,因为他们很乐意代理对方。 而且要确定我通过每个CAS进行手动testing(没有负载平衡器)似乎表明了这一点。 但是现在我已经介绍了HA代理,OWA似乎不想正常工作。 症状 这里有一些症状: 当我通过2016 OWAlogin到2013邮箱时,它会正确login,redirect我,并开始加载收件箱。 但是在加载收件箱后的一两秒钟之后,我重新回到了OWAlogin页面,就好像我从未login过一样。 我可以多次重复,只要我通过2016 CASlogin,似乎也是这样做的。 有时当我通过2016login时,它只会挂起“仍在工作”。 不过,这种情况远不那么频繁,只是把我退出了。 有些时候,它很快redirect到login页面,我什至不能告诉我login,并没有错误信息。 这只是一个闪光,然后回到login页面。 在Mac和Windows 8.1上,我已经尝试了最新版本的Chrome和Firefox。 所以这不是terminal设备问题。 如果我通过2013年CAS上的OWAlogin到2013邮箱,即使通过负载平衡器,它似乎第一次正确login。 我在负载均衡器上有一个IP,然后以循环方式代理每个CAS节点的stream量。 这是我用来testing我的LB. 我有其他IP直接指向个别CAS节点。 如果我直接login到2016年CAS节点到2013邮箱,这工作正常。 这是我通过负载均衡器login到2016 CAS的一个问题。 有趣的是,我刚刚注意到即使login到2016邮箱也会出现完全相同的问题。 所以只要我login到2016 CAS,它就会退出。 一旦我通过2013 CAS成功login,我可以多次刷新页面,会话仍然保持开放。 对我来说,这表明一旦会话build立,代理一定程度上正常工作,因为我的LB是循环(round-robin),所以每次刷新OWA页面时,stream量都应该重新分布在各个CAS节点上。 我似乎很清楚,在负载平衡器后面还有其他人遇到与Exchange 2010-2016类似的问题。 不幸的是,这是我们第一次使用负载平衡器,因为我们正在从单一CAS升级到3,并且升级到Exchange 2016。 我发现有相似症状的公平的几个职位: https://devcentral.f5.com/questions/microsoft-exchange-2013-iapp-cant-login-to-owa-or-ecp-if-more-than-one-server-is-active-in-pool OWA does not work after Load balancing Exchange […]

通过负载平衡器cd连接的FTP工作失败

以下是configuration。 Client is a linux server IP: 10.204.21.143. This server is only reachable to HA Proxy server. HA Proxy Server IP: 10.204.24.71 (Its a Solaris 11.3 Server) Back end Server where the FTP Server is running : 10.212.22.31 This server is only reachable to HA Proxy Server only and not to Client Server. HA代理configuration: $ […]

Nginx php-fpm在高stream量网站上摆脱502错误

目前我有以下规格的服务器: 32 core 128gb RAM 1TB SSD hardisk 5Gbps network uplink 目前的设置是nginx + php-fpm,没有任何负载均衡设置 nginx.conf fastcgi_connect_timeout 9000; fastcgi_send_timeout 9000; fastcgi_read_timeout 9000; fastcgi_buffer_size 256k; fastcgi_buffers 256 16k; fastcgi_busy_buffers_size 512k; fastcgi_temp_file_write_size 256k; fastcgi_intercept_errors on; location ~ [^/]\.php(/|$) { try_files $uri =404; fastcgi_pass unix:/tmp/php-cgi-56.sock; fastcgi_index index.php; include fastcgi.conf; include pathinfo.conf; } PHP-fpm.conf [www] listen = /tmp/php-cgi-56.sock listen.backlog = […]

第一次调用HAProxy多个证书错误

我有一个负载平衡器运行HAProxy 1.7.5-2与以下设置: 多个启用https的前端 每个前端绑定以下(针对不同的IP): bind <ip>:443 ssl crt /opt/certbot/haproxy/fullchains/__fallback.pem crt /opt/certbot/haproxy/fullchains 请注意,我使用让我们encryption证书,并在同一前端下有多个网站。 以上内容自动为所请求的主机名select正确的证书。 现在我正遇到以下问题:无论何时我在隐身窗口中打开一个网站(注意,都启用了HSTS),我将获得回退证书,只有在重新加载网站后,网站才会加载正确的证书。 任何人都有一个想法,这个问题可能来自哪里?

AWS负载均衡器是否有效防止DDos?

我有一个小但很受欢迎的本地网站,这是一个非营利性的合资企业。 我们安排编程比赛。 但随机在一些比赛中,我们的服务器宕机。 例如在上一次比赛中,我们有大约300名用户,我们部署了12台C4Large级服务器(当网站停机时,我们增加了服务器来解决这个问题),但是网站仍然停留了2个小时(尽pipe大部分参赛者在1小时后左看到网站不工作)。 我们所有的服务器都通过AWS负载平衡器访问,我们在负载平衡器级别使用SSL。 我认为,由于使用负载平衡器,IIS不能区分即将到来的stream量,所以我不能应用基于dynamicIP的限制这种攻击build立的IIS。 有没有办法从AWS做到这些? 这是DDos / Dos攻击我们的服务器的问题? 我们使用相同的服务器和相同的代码,但在一些比赛中,我们面临这个问题,但在另一些我们不面临这个问题。 但我不知道如何跟踪这个以确定我们是否在DDos之下。 我们可以做些什么来保护自己? 谢谢

keepalivedconfiguration中的virtual_ipaddress_excluded的含义

我的keepalivedconfiguration有一些问题,并在这篇文章中find了答案: Keepalived for more than 20 virtual addresses 但我不确定virtual_ipaddress和virtual_ipaddress_excluded之间的区别? 任何人都可以向我解释这个? 该文件说: virtual_ipaddress_excluded {#VRRP IP从VRRP报文中排除