我一直在网上搜寻有关设置ZXTM正确负载平衡Web套接字连接的信息。 (也是这个任务的通用信息将是方便的) 看起来,因为它是一个7层的负载平衡器,当客户端发送build立一个web套接字连接所需的升级头时,它会感到困惑。 我想我可以使用交通脚本规则来纠正这个问题,但是我不确定从哪里开始。 我能find的唯一信息是如何用nginx使用特殊的tcp代理模块来完成这个任务,并且还有一些关于如何使用HA代理完成这个任务的信息。 遗憾的是,目前这两种方法都不是一种select。 如果任何人有任何信息,通用或具体如何设置第7层负载平衡器正确处理networking套接字,这将是盛大的。
我拿起了一个新的戴尔R410 2.8 Ghz 12Mcaching32 GB的RAID RAID 1 / RAID 1为一个良好的年终交易。 它主要是为了replace我的主要WEB服务器Dell PowerEdge 2850而购买的。 我全面运行Windows Server 2008 R2 Standard(机架中的几台服务器),这就是我使用这台新服务器所得到的结果。 我很高兴我两年前得到的R410,也就是2.8Ghz和32GB内存,我使用SQL 2008 R2标准版连接到iSCSI SAN(Dell MD3000i)。 新款R410已经上架了,我惊讶地发现它有12个内核! 哇! 单处理器,就像我的其他R410,由于每个proc许可的SQL成本。 正如我所说,我打算使用这个服务器作为我的主要networking服务器,这将有很多的活动,包括云function的WCF服务(数据,同步,备份等)。 我总是把最好的服务器作为SQL Server。 我惊讶于我的R410驱动SQL的速度,但我想知道SQL是否会更好地使用12核心,因为它只有4个,显然是一年前的一个较旧的proc。 然后,我想,如果我有IIS努力pipe理通过networking和WCF的很多连接,它会更好地扰乱12核心? 我的网站确实推动电子商务,但我是一个小企业。 我应该按照计划将新的R410作为主要的WWW服务器,还是应该将其混洗,将其作为新的SQL框,并将之前的R410作为新的WWW框? 同样,存储和磁盘I / O通过iSCSI SAN进行存储。 你会怎么做? 这是一个明确的决定吗? 我的一部分人认为只要等一年,一年内得到新的R410,随着业务和服务的不断增长,使其成为新的SQL框。 我们今年秋天推出了一个重要的新产品,因此我们积累了。 我们有更旧的1750年,1850年和2850年也在网上加载的机架。 感谢您的意见,因为我们已经准备好将新服务器在下周初使用。
可能重复: DNS电子邮件负载平衡 我的情况是: php-script(mail originating) -> DNS load balancer (vps server).–vps1(relayhost 1) |–vps2(relayhost 2) |–vps3(relayhost 3) 当我从PHP脚本发送文本邮件(大小〜8 KB)到负载均衡器,负载平衡器负载平衡邮件的负载,并提供给中继服务器。 我已经用这个传递了4万封电子邮件。 但是,当我在邮件中embedded图像(图像大小〜160 KB)时,负载均衡器不会将任何邮件发送到客户端。 这是邮件大小问题还是可能是另一个问题?
粘性会话如何与HTTP和HTTPS相关联; 如果我将负载平衡器放置在运行支持HTTPS的前端的某些Web应用程序服务器之前,会话是否会在典型的负载平衡器上保持“粘滞”状态,该负载平衡器列出“stick会话”作为其支持的function之一? 我知道这个问题部分是开放性的, 为了说明,我是否需要一个支持粘性HTTPS会话的负载平衡器,或者是“粘性会话”,它是一个与HTTP负载无关的主体,不pipe它是否被encryption? 谢谢。
我有一个基于Windows的桌面应用程序,通过TCP与应用程序服务器进行通信。 (Windows 2003)。 客户端调用之间没有粘性会话。 我们有2台服务器负载均衡,我们正在考虑使用F5硬件NLB。 该应用程序是一个重负载types,在服务中没有太多的业务逻辑,但在大多数时间检索相当数量的数据。 可能在任何时候平均5000到10000条logging。 主要用于存储和退回数据,不需要在服务器端运行数据或计算的特殊处理。 考虑到我的服务需要一段时间才能返回数据,因此我倾向于使用“预测”,因此跟踪反馈会产生一些更好的路由,就像预测一样。 我不知道是否给定的数据足以提出一些想法,但考虑到这些,有什么build议\事情要考虑\最好的预测和最less连接? 谢谢。
我期待着巩固我们目前的大型ubuntu ec2服务器和2个大型RDS服务器的aws设置,这些服务器为我们的3个网站提供了大约150万个点击量,每个月大部分stream量(1 mil)增加到1个在小组论坛网站和其余的交通到电子商务网站和一个小的WordPress的网站。 那么这是我的问题/想法? 将两台ec2大型服务器合并到两台RDS服务器上是否会更好?因此,我们将所有三个站点从一个大的ec2和一个RDS上运行。 – 或者 – 我们应该设置2-3个更小的ec2服务器加载balenced和一个RDS。 – 或者 – 完全不同的设置? 一个担心的是,如果一个网站崩溃,则需要其他网站。 它发生在过去,但我非常确定,因为论坛软件,而不是服务器设置。
请纠正我,但我的理解是,在软件负载平衡的服务必须在每台服务器上运行,而有一个DS通知其他服务器的服务器已经closures,他们应该消耗该服务器的负载。 通过硬件负载平衡在故障切换中会发生什么? 有人可以解释吗? 在故障切换时使用硬件负载平衡有什么优势,还是软件方面有优势? 还是他们都有自己的优点和缺点?
我已经使用nginx实现了负载均衡器,如下所示: 上游lb_units { 服务器127.0.0.1:88权重= 7 max_fails = 3 fail_timeout = 30s; #反向代理到BES1 服务器10.200.200.107 weight = 1 max_fails = 3 fail_timeout = 30s; #反向代理到BES2 服务器10.200.200.94 weight = 1 max_fails = 3 fail_timeout = 30s; #反向代理到BES2 } 服务器{ 听80; server_name mysite.com; 位置 / { proxy_set_header X-Real-IP $ remote_addr; proxy_set_header X-Forwarded-For $ proxy_add_x_forwarded_for; proxy_set_header主机$主机; proxy_pass http:// lb_units; proxy_redirectclosures; […]
我有2个PHP应用程序的VPS服务器都使用相同的数据库(在第三台服务器上)。 我想有第四个服务器,只有nginx作为负载平衡器,试图“分”在两个stream量。 我的问题是 – 如果nginx收到一个请求,试图将其转发给其中一台服务器,但服务器没有响应,会发生什么情况。 它会尝试将其发送到第二台服务器吗? 重要的是我没有一个单一的丢失的请求,所以如果Server1失败,Server2将立即收到相同的请求。 这是如何nginx的作品? 如果没有,我可以用nginx来做吗,或者我应该尝试使用另一种解决scheme? 问候。
我读到它可能在VPC中创build弹性负载平衡器,但我没有find如何创build它。 我怎样才能在VPC中创build弹性负载平衡器?