我知道这可能是一个简单的问题,但我似乎无法在任何地方find明确的答案。 我们有两台服务器(Win2K3 SP1)在NLB下的IIS 6.0上运行单个网站。 每个服务器都运行两个networking适配器,当前有一个处理“正常”服务器通信,另一个处理服务于单个网站的NLB群集。 我想知道是否有可能和/或build议在同一台两台服务器上的不同NLB群集下的IIS中运行多个网站。 如果有可能,有没有人有任何描述如何正确地做到这一点的链接? 提前致谢。
我正在运行一个networking服务器,我正在主办6-7网站。 这些网站中的大多数从托pipe在同一台服务器上的MySQL获取其内容。 每天的平均访问量约为500-600人,每周访问量约为15万次。 但由于某种原因,有时网站发送超时,或有时网站不加载所有图像。 我知道我也许应该从dynamic内容中分离静态内容,但是现在我认为这不是一种可能性。 我将不胜感激任何build议,我怎样才能提高Apache的性能,所以它不会超时。 服务器在 Sempron LE 1300 上运行 ; 2.3GHz,512Kcaching2GB RAM 10Mbps / 1Mbps 服务: MySQL,ProFTPD,Apache。 Private + Shared = RAM used Program —————————————————- 1.2 MiB + 54.0 KiB = 1.2 MiB proftpd 4.1 MiB + 23.0 KiB = 4.1 MiB munin-node 20.8 MiB + 120.5 KiB = 20.9 MiB mysqld 47.3 […]
我正在使用linode租用的小型VPS运行Centos 5.3。 我们有一个合作伙伴,每天需要向我们提供大约8 GB的数据,虽然我们可以把它放在一个片段上,但我宁愿有一个更好的策略。 有没有一种方法来平衡FTPstream量?
我有一个50Mbs卫星链路和一个10Mbs的微波链路,提供一个非常偏远的位置。 在这些链接的背后,我有一个6,400个座位的networking – 任何时候都有大约3,000个loginnetworking。 我的目标是通过具有100ms延迟的微波链路发送所有Voipstream量(Google Chat,Magic Jack,Skype,Speakeasy,Vonage,Vonage PC,Yahoo)。 其余的stream量可以利用微波链路的任何剩余带宽,多余的被转移到更高延迟(600毫秒)的卫星连接。 到目前为止,我遇到的问题是大多数自动路由configuration对于优先级权衡很大 – 我只想考虑延迟。 另外,我不知道这个问题是否可以通过我使用的路由硬件(Cisco 3640,3745和3845)来处理。 任何build议(或真正好的起点)将不胜感激。
我目前正在安装一些运行Mac OS X Server(10.6)的Apple Xserve设备。 在戳了一下之后,我找不到任何明显的方法,或者说文档告诉我如何在故障转移或负载平衡configuration中设置2个以太网端口。 似乎有一个明显的方法来做链接聚合,但不是故障转移或负载平衡? 如果我使用相同的(手动configuration的)IP地址启用两个端口,那么默认configuration是什么?
我们最近将一台Dell PowerConnect 6248堆栈换成了Cisco 6500核心交换机。 此后,在ESX群集上的两个虚拟机上运行的networking负载均衡Sharepointperformance得相当糟糕。 症状是打开和保存存储在SharePoint中的文档需要很长时间。 在Sharepoint服务器或SQL服务器上没有出现错误,只是很多恼人的用户。 最初我以为NLB没有办法解决这个问题,但是一旦我们把内部网的DNSlogging重新写到networking前端的IP地址上,问题就消失了。 我们怀疑Dellconfiguration中存在与组播相关的问题 – NLBconfiguration了多播,但不configurationIGMP。 有没有人有类似的设置,并解决这类问题? VMware ESX上的Sharepoint,以及Dell PowerConnect交换机。
我们有一个负载平衡器的设置,其中一个HTTPS请求stream经以下步骤: Client -> DNS -> stunnel on Load-Balancer -> HAProxy on LB -> Web-Server 当stunnel正在监听负载均衡器的本地IP时,此设置完美工作。 然而,在我们的设置中,我们有2个负载均衡器,我们希望能够监听一个虚拟IP,这个虚拟IP一次只能在一个LB上存在(keepalived将IP翻转到第二个LB,如果第一个丢弃的话)。 HAProxy在这样做没有问题(我可以ping所分配的虚拟IP在我正在testing的负载平衡器上),但似乎stunnel恨这个概念。 有没有人以前做过这个(下面是我的stunnelconfiguration – 正如你可以看到我实际上听所有443stream量): – cert= /etc/ssl/certs/mycert.crt key = /etc/ssl/certs/mykey.key ;setuid = nobody ;setgid = nogroup pid = /etc/stunnel/stunnel.pid debug = 3 output = /etc/stunnel/stunnel.log socket=l:TCP_NODELAY=1 socket=r:TCP_NODELAY=1 [https] accept=443 connect=127.0.0.1:8443 TIMEOUTclose=0 xforwardedfor=yes 对于冗长的问题抱歉!
我正在为所有请求设置一个使用SSL的Web应用程序。 它需要有扩展的空间,也是高度可用的。 似乎“推荐”的处理方法是为HA设置一对第4层负载均衡器,它们通过服务器场进行SSL解密,然后转到第7层负载均衡器的场,然后最后到networking服务器。 (见: http : //1wt.eu/articles/2006_lb/index_09.html ) 过去我使用过HAProxy,所以我尝试了一下这样的设置。 基本上我有HAProxy in TCP mode => STunnel => HAProxy in HTTP mode => Apache 。 当我这样做时,可用于apache的客户端IP是第二个HAProxy服务器的IP。 我可以通过让STunnel添加一个X-Forwarded-For头来稍微改进,但是只给了我第一个HAProxy服务器的IP地址。 我无法find让Apache知道原始客户端IP地址的方法。 根据我读过的文档,我不认为HAProxy能够在tcp模式下通过原始客户端的IP地址。 那是对的吗? 如果是这样,是否有任何开源软件负载平衡器可以做到这一点? 如果没有,是否有任何商业/硬件负载平衡器可以? 我想我也应该注意到,这个负载均衡器并不严格地需要成为第4层负载均衡器。 我只需要能够通过SSLstream量到STunnel(或任何我最终使用的SSL解密)。 作为一个侧面说明,我试图设置它没有第4层负载平衡器(即STunnel是链的第一部分)。 这解决了客户端IP问题。 但是,正如上面的文章所预测的,STunnel是瓶颈。 它开始丢失每秒500到600个请求的请求。 而且,当然,这不能通过增加更多的框来扩展(同时维护HA)。 根据我给出的要求,这个应用程序应该能够处理每秒1000-5000个请求的峰值stream量。
我一直负责设置一个三层SharePoint场。 两个负载平衡的Web服务器 两个应用服务器 一个SQL服务器 一切都设置和负载平衡等工作。 我的问题是我如何处理应用程序服务器? 我是否负载均衡两个应用程序服务器? 我会聚集他们吗? 我在每台服务器上运行某些服务吗? 我是否在每台服务器上运行相同的服务,SharePoint会自动select服务器? 我不太清楚为什么我们有两个应用程序服务器。 目前,我只是在每个应用程序服务器上运行相同的服务。 任何帮助/提示/解释将不胜感激。 谢谢,杰米
我目前正在testinghaproxy来平衡我们的通讯时代。 我们为客户build立个性化的通讯。 要做到这一点,我们使用两个networking服务器(相同的机器),和一个“邮件引擎”。 邮件引擎调用Web服务器,然后返回一个个性化的HTML通讯。 现在的问题是,一个Web服务器的CPU负载约75%,而另一个只能运行15%。 在testing时查看“会话率”,两台服务器的“Session rate – > Cur”全部在3到4之间。 但是当看“会话”时,这里“会话 – > Cur”总共有10个,Web服务器1有一个“Cur”8,另一个Web服务器有0到2个。 为什么会在第一个Web服务器上有8个会话,另一个是0-2? 这是我的configuration: defaults log global mode http option httplog option dontlognull retries 3 option redispatch maxconn 2000 timeout connect 5000 timeout client 50000 timeout server 50000 listen mailgenerator 10.46.70.75:80 mode http stats enable balance roundrobin option httpclose option forwardfor option httpchk […]