是否有任何有关HTTPS负载平衡与HTTP负载平衡的因素? 这可能是一个原因,为什么HTTPS不在各种网站上传播? (市场上有便宜的CA)
我目前有一个中等大小的集群(15台服务器),其中有3个节点使用ip_hash运行nginx负载平衡。 被平衡的协议是非常高的连接速度,所以我把我的max_fails设置得相当高,以避免误报服务器停机信息。 有没有一种方法可以监视nginx将服务器标记为脱机状态,以及何时将其标记为联机状态? 访问/错误日志是巨大的,我找不到任何具体的错误消息来grep /parsing出来,找出当一个服务器被认为是“坏”。
我正在尝试使用IPTables在相同的LAN内设置负载平衡(如果可能的话)。 我的想法是仿效我们的主要负载均衡器,但是在虚拟环境中,所有的服务器都是虚拟机。 有一个网关服务器,转发虚拟服务器和真实世界的stream量,我想使用该网关来平衡虚拟局域网内的一些stream量。 我的设置是: GatewayServer – > 2个接口:eth0(公共),eth2(私有; 10.xy0 / 24) ServerA – > 1接口:eth2(Private; 10.xy0 / 24) ServerB – > 1接口:eth2(Private; 10.xy0 / 24) 在ServerB上有两个服务实例,监听端口60003和60004。 我的目标是能够打开从ServerA到GatewayServer的连接:60002,并以循环方式在端口60003和60004上平衡到ServerB。 我已经能够通过GateWay服务器从ServerA打开到ServerB的连接,但是连接总是通过端口60003到达ServerB,而从另一个60004不会到达ServerB。 我有这样的网关设置: -A POSTROUTING -i eth2 -s 10.xy0/24 -p tcp –dport 60002 -j DNAT –to-destination 10.xy18-10.xy18:60003-60004 -A POSTROUTING -o eth2 -j MASQUERADE 在ServerB上嗅探我看到来自GatewayServer的数据包,但始终按照前面所述的方式将端口60003挂接。 任何想法?
我有2个Ubuntu 11.04 VM,我已经安装了Heartbeat + apache2来实现“高可用性”设置。 心跳已经启动并运行在两个,但我不能ping通虚拟IP(集群IP) 从我跟随Heartbeat指南自动应该创build活动节点上的别名。 但我没有看到在我的虚拟机的任何别名 设置如下所示: ha-node1configuration: root@ha-node1:/etc/ha.d# cat ha.cf autojoin none #mcast bond0 239.0.0.43 694 1 0 warntime 5 deadtime 15 initdead 60 keepalive 2 node ha-node1 node ha-node2 pacemaker respawn logfile /var/log/ha-log debugfile /var/log/ha-debug udpport 694 auto_failback on bcast eth0 root@ha-node1:/etc/ha.d# cat haresources ha-node1 IPaddr::10.0.0.10 apache2 root@ha-node1:/etc/ha.d# crm_mon -1 ============ […]
我的网站目前运行在一个专用的Web服务器(LiteSpeed)和专用的MySQL数据库服务器上。 这是一个基于下载的网站,有很多用户生成的内容,可以stream式传输和下载,还有成千上万的缩略图和静态内容。 我正处于Web服务器无法处理stream量的阶段,所以我正在考虑考虑大量的可下载内容,如何提高容量。 我的主机build议在第二台Web服务器上镜像所有内容,并使用DNS Made Easy在它们之间分配负载,或者在两个Web服务器前面使用自己的负载平衡器(使用ldirector)。 任何人都可以build议上述方法是否是最好的select? 是否有任何人使用DNS Made Easy和/或ldirector的经验? 我会很感激任何帮助。
我阅读这篇文章: Web 2.0应用程序的客户端负载平衡 。 这是实际使用客户端负载平衡? 有什么缺点?
我们正在使用stunnel和HAProxy来满足我们的负载平衡需求。 在nginx中,您可以根据子级服务器上的文件的存在来启用维护状态(请参阅configurationnginx以在文件存在时提供503 )。 使用HAProxy时,是否可以根据文件的存在将服务器节点置于“维护模式”?
我们有两个networking服务器(nginx)位于负载平衡器后面(风暴点播负载平衡器,而不是由我们的团队pipe理)。 默认情况下,我们收到的IP是负载均衡器IP。 我们尝试在nginx中使用真实的ip模块,但是看起来负载均衡器并没有转发真实的ip。 Nginx的configuration(我们有一个默认的虚拟主机,只是redirect到一个静态的HTML页面进行testing,并inheritance了一切从http指令): http { # xxxx is the IP of the load balancer set_real_ip_from xxxx; real_ip_header X-Real-IP; # also tried: #real_ip_recursive on; #set_real_ip_from xxx0/24; #set_real_ip_from 0.0.0.0:0; log_format main '$remote_addr – $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_real_ip" "$http_x_forwarded_for"'; Nginx的版本和编译模块: nginx -V nginx version: nginx/1.2.1 built by gcc 4.4.4 20100726 (Red […]
我试图找出如何设置我的架构的一个socket.io应用程序,将需要https和wss连接。 我在网上发现了许多教程,build议您在haproxy前使用类似stud或stunnel的东西,然后将未encryption的stream量路由到您的应用程序。 如果我要走这条路线,是不是build议把haproxy和ssl终结者放在不同的实例上呢,还是在同一个EC2服务器实例上呢? 如果我不想使用单独的ssl终止符,我可以使用haproxy来终止ssl吗? 或者,而不是将这些https和wss连接代理到我的应用程序,并让节点应用程序终止ssl本身?
我已经遇到了这么多的答案,我完全失去了! 我正在将我们的两个站点迁移到一个负载均衡的ec2系统,scalr作为我们的云pipe理员。 现在问题是关于用户上传的内容和其他文件的持久存储。 有人可以给我一个build议,并可能链接到以下设置和目标的教程。 2个网站(1个论坛,1个电子商务)。 1 LB 1应用程序服务器(根据需要向外扩展)1个数据库服务器(根据需要向外扩展) 我们的网站将需要自动调整,根据我正在学习scalr,这意味着当新的实例加载,我需要运行一个脚本来设置在服务器上的基础(git,php mods,从git拉站点,移动钥匙等) 我不明白的是如何处理用户上传的内容,如个人资料图片,头像,产品图片,主题等… 我可以挂载一个EBS或s3fs文件夹来存放网站(也许是/ var / www / websitefolder),或者做一些像挂载头像文件夹/ var / www / websitefolder / images / avatars的东西) 我不知道该去哪里。 有人能给我一些详细的帮助吗? -约翰