我们需要一个解决scheme来将networkingstream量从1个Web服务器路由到另一个。 我们有2个专用的Windows 2008服务器与我们的托pipe公司。 第一台服务器是我们的主要networking服务器,第二台服务器是备份服务器。 我们运行多个站点,并为Web服务器提供多个IP地址。 备份服务器有自己的IP地址。 我们希望能够将stream量路由到备份服务器,以防主Web服务器出现故障。 为了将stream量切换到备份服务器,我们需要将networking服务器的IP地址转移到不理想的备份服务器上。 将主streamWeb服务器的stream量快速路由到备份服务器的最佳解决scheme是什么? 奇特的解决scheme将是一个自动故障切换,但手动开关也可以工作。 是否需要第三台服务器作为负载平衡器? 在这种情况下,负载平衡是否过量? 如果你投入了足够的资金,我肯定有一个奇特的解决scheme,但由于我们是一家小公司,所以预算紧张。 有一点需要注意,我们有第三台Windows 2008服务器,可以用作负载平衡器。 期待您的解决scheme。
在小型办公室(大约30人)中,平衡多个DSL LAN连接的最佳方式是什么? 如果有思科产品可以做到这一点,请推荐,因为这将有助于遵守更广泛的支持合同。
我使用来自外部服务器的httperf来压力testing我的应用程序(在scalr / EC2上)。 然而,nginx被configuration为根据源的IP地址分配负载(因此每个应用服务器将接收来自同一用户的所有stream量)。 任何想法如何解决这个问题,并衡量负载处理时,nginx后面的应用程序服务器的数量增加?
我想知道是否有第三方应用程序可以帮助我跨多个Web服务器部署一个Web项目(网站)到IIS。 同时,从负载平衡器中部署一台服务器,从负载平衡器中取出第二台服务器,等等。 有没有这样的应用程序/软件? 谢谢!
我有一个Web服务端点,我正在build立人们将发布一个XML文件,它会真正得到冲击超过1K每秒的请求。 现在他们通过http post发送这些xml文件,但其中绝大多数会受到限制。 问题是,速度限制将由Web应用程序通过查找xml中的source_id来完成,如果超过每分钟x个请求,则不会进一步处理。 我想知道是否可以在处理的早些时候进行速率限制检查,从而保存了50K文件,将stream水线扔到我的networking服务器,并耗尽资源。 负载均衡器能否发出呼叫来validation费率使用情况? 如果这是可能的,我可以把source_id放在主机头文件中,这样即使XML文件也不必被parsing并加载到内存中。 是否有可能只看主机头,不加载整个50K的XML文件到内存? 我真的很感谢你的见解,因为这需要更多的关于整个TCP / IP协议栈的知识。
在具有冗余服务器(多个盒子)的典型NFS设置中,人们是否使用负载均衡器或循环DNS来为客户端实现单个连接向量? 有没有更好的方法来做到这一点,而不是每个客户机手动添加每个NFS共享的IP地址?
我们目前有一个简单的3服务器设置: Cloud NGinx / Apache web服务器(NGinx提供静态,dynamic代理到Apache / PHP后端) 专用数据库服务器 云传出电子邮件+监控服务器 我们正处于需要扩展/扩展我们的Web服务器的地步。 我们希望获得以下成果: 如果Web服务器失败,最大限度地减less停机时间 在高峰时段提供额外的容量 允许我们升级一个networking节点,而不会取消网站 也允许SSL服务 我想添加一个额外的networking节点,与原来的networking节点具有相同的容量,而不是将现有networking节点的容量加倍,因为这会给我们一个故障转移/镜像节点(当负载平衡时)来提高容量并提供冗余。 我已经深入地研究了这些选项,目前HAProxy似乎无法处理SSL问题(并且不希望在负载均衡器中终止,所有SSLstream量都必须进行端对端encryption,结束)。 我的select似乎是: 答:在两个networking节点的前面添加一个软件负载平衡器(例如Nginx)。 这里的问题是用户上传UGC时,在其他节点上不可用。 通过粘性会话这不是一个问题,但最终我们需要同步上传的内容,否则节点将失去同步。 可以使用Rsync,但我们正在看master-masternetworkingconfiguration,需要双向…。 B:如上所述,但是使用负载平衡器也可以提供静态内容。 然后,这将从Web节点卸载一些处理。 我们可以将所有从networking节点上传到负载均衡节点的rsync同步,这样它就只能从web-> load balancer单向rsync。 任何非静态请求都会对Web节点进行负载平衡。 这将所有的静态内容保留在一个地方,但我的目标是有一个小的负载平衡节点,这可能会增长相当大? c:作为A,但是使用NGinx来指示上传可能(这很容易分割)的任何访问者stream量到一个“主”服务器上传,并且在其它节点之间为“只读”stream量进行相当的负载平衡。 这使得同步变得简单,因为它将是单向的(主节点networking节点 – >从属节点),使我们能够更好地使用networking节点上的磁盘空间,并保持负载平衡器的静态内容不变。 但是,这意味着如果主节点出现故障,我们需要手动将我们的“上传”区域的stream量切换到剩余的服务器(nginx可能能够做这个切换,我们只是有一个不同的负载平衡configuration我们的上传区域) B似乎是一个很好的configuration,而且我可以将Load Balancer节点与我们现有的电子邮件/监控服务器结合,因为它闲置。 负载均衡节点有一个单点故障,但是在紧急情况下,我们可以调出一个新的云实例来替代这个实例。 不过,我不喜欢只有在一个节点上的静态图像的想法,因为我们没有固有的备份。 我也喜欢C的想法,因为这意味着它保持简单。 如果负载平衡器失败,我们可以直接将stream量引导到其中一个networking节点,而没有任何问题(因为它们都有一整套静态文件)。 任何上述解决scheme的input将非常感激
我在Centos +上有一个Apache 2,上面绑定了一个wordpress网站(例如example.com)。 我还在另一个国家的另一台服务器上为它设置了一个负载平衡器(varnish:80 + nginx 127.0.0.1:8080) – 哪个任务是服务于/ wp-content /下的所有静态内容。 使用简单的DNS编辑器,我添加了一个指向服务器IP的cdn.example.com条目。 所以没有第二DNS服务器的额外工作。 然后使用htaccess将所有请求redirect到jpg | gif | css | js文件到cdn.example.com。 这工作,所有的文件都保存在“cdn”服务器上,并立即投入服务。 我的问题是,我第一次进入example.com(例如重新启动计算机或closures浏览器之后),加载时间是1到3秒,而后续页面加载只需要300到600毫秒。 我知道这可能是一个DNS问题,但我已经做了几个网站caching检查,cdn.example.com表明正确的IP。 你有什么想法,我应该挖掘解决这个首次慢? 稍后编辑: 我做了我的index.php的静态版本(.htm),并尝试了一些testing。 我注意到一些有趣的事情:一些图像加载非常缓慢。 正如我在Google开发者工具中看到的: Waiting _ _ _ _ _ _ 3.04s 。 这不好,也许清漆遇到一些问题…
我有一个弹性负载平衡器与一组持续的实例配对,另一个是可变数量的现场实例。 当我直接使用端点访问服务器时,服务器正常运行并正确加载页面。 当我通过ELB访问它时,页面加载非常缓慢(相对)。 Ec2 / Spot direct:连接:89ms ssl:50ms发送:1ms等待:1.53sec接收:23ms ELB送达:发送:0ms等待:430ms接收:1.11sec 通过谷歌浏览器networking时间轴工具,他们有所不同,但不是很多 这个很长的接收期的结果是我的网页的HTML加载,并采取“永远”,然后运行JavaScript和应用CSS。 客户端看到页面加载,然后在我的直觉所说的1.1秒结束后,它将应用格式化…这是不好的。 任何人都知道我做错了什么?
我有两个jboss背后的cisco css 11503负载平衡的实例。 在每个实例中,我有两个应用程序。 其中之一,需要粘滞的会议被启用,其他不。 有没有可能在这个cisco css模型上configuration? 基于例如在url。 像www.mydomain.com/appA启用粘性会话,和www.mydomain.com/appB没有? 如果可能,我该怎么办? 谢谢 黄绿色