我一直在寻找一个解决scheme,允许一个SSH会话从一个Linux机器迁移到另一个。 我更喜欢开源或免费的解决scheme,但我甚至找不到商业解决scheme。 我怀疑这是不可能的,因为ssh会话与tty,port等密切相关。 基本上我有一个设置,利用haproxy与keepalived传入ssh连接到Linux箱(池主机)池中的一个Linux箱,haproxy仍然充当反向代理/负载均衡器,它不允许直接连接从SSH客户端的SSH服务器(我读其他地方这是可能的)。 但是,如果Linux盒子发生故障,则无法将所述Linux盒子上的ssh会话迁移到其中一个幸存者。 当然,用户可以尝试重新连接,并会得到一个新的SSH会话,但这不是我们的用户想要的。 有人有解决办法吗?
我们正在考虑一个类似于Solaris 10图片的架构 也就是说,Web和应用程序服务器前面的高可用性软件负载平衡器。 不幸的是,Keepalived目前不适用于Solaris。 在Solaris 10中是否支持代替Keepalived的等效工件? 有使用HA SW负载平衡的Solaris等效体系结构吗? 谢谢。
我们有haproxy以非守护进程模式运行,DJB的监督(又名daemontools)脚本一直在关注它。 但是,随着我们网站stream量的增长,其单线程已达到100%的CPU。 我们想开始使用haproxy的nbproc选项,以使用多核心。 但是,这需要haproxy处于“守护进程模式”。 有没有办法让haproxy在守护进程模式下工作? 如果是这样,是否会正确回应“svc -d”命令? 如果没有办法,你们有没有发现它足够可靠,我们不需要监督了?
我有一个目前正在开发的Haproxyconfiguration,我正在使用以下代码,以便查找请求用户是否接受cookie,因为在最终目的地的脚本需要cookie来保证安全。 frontend connection_Handler # This proxy requires the acceptance of cookies to work acl cookie_set hdr_sub(cookie) YuL7oo2UG3O3=zdQ66fM0lpRd redirect prefix / set-cookie YuL7oo2UG3O3=zdQ66fM0lpRd unless cookie_set use_backend Cookie_Block unless cookie_set 这是我正在使用的configuration来设置cookie,如果用户将正确采用cookie,它的工作很好。 但是,如果最终用户不接受Cookie,则会生成无限redirect循环。 Cookie_Block后端如下 – backend Cookie_Block # For this block we will hold the connection for 5 seconds then reject # The error will display the reason […]
我正在使用haproxy 1.5dev3,我想知道是否有任何可能的方式来抓取urivariables从请求重新查询redirecturl的结尾? 我想要做的是redirect从: http://www.domain.com/page/example.htm?id=1234567 至: http://www.domain.com/frame/newpage.cfm?id=1234567 redirect前缀无法正常工作,因为它试图将/page/example.htm附加到redirecturl的末尾。 我可以做一些重写来完成这个? 如果您可以使用uri和查询作为redirect/池select的variables(如F5),那将会非常棒。 请帮助…谢谢!
我试图在mysql级别为我们的生产系统devise一个简单的高可用性系统。 从我目前阅读的内容来看,最好的解决scheme是设置主 – 主复制。 不幸的是,我们不能使用虚拟IP,所以像MMM这样的脚本不能像我所想的那样被使用。 build议的解决scheme是通过haproxy连接到mysql,这将“保证”一次只能写入一个主机。 我找不到这个configuration的许多信息 – 与通常的基于虚拟IP的configuration相比有什么优点/缺点?
是否有任何软件可以侦听TCP数据包,并在检测到与特定filter匹配的数据包时执行一些事件或(代码,脚本,exe等)? 给你一个我想要做的例子。 假设我有2个Web服务器,一个开发和一个生产。 我希望能够将代码更新推送到我的开发服务器,并将到生产服务器的所有请求复制到开发服务器上,以testing压力和并发性。 还有其他的应用程序,我发现它是非常接近我所需要的,但他们缺乏一个非常重要的事情,实时执行。 我不能loggingTCPstream量然后重播它,它需要实时完成。 当前设置(使用haproxy的ii7)
我打算一起使用nginx和haproxy。 我这样做是因为haproxy不支持gzip压缩。 我的目标是首先使用nginx进行gzip压缩,然后将其转发给haproxy进行负载平衡。 我很好,直到那一刻。 但是在做这件事时,我想创build透明代理。 由于nginx不支持tproxy,我使用了X-Forward-For头。 然后在haproxyconfiguration我添加了source 0.0.0.0 usesrc hdr_ip(X-Forwarded-For,-1)行,但我得到了503错误代码在我的浏览器。 没有这条线他们工作正常,但不是我想要的方式。 谢谢你的帮助,我希望我能解释我想要的:)
我有一个HAProxy + NodeJS + Rails安装程序,我使用NodeJS服务器进行file upload。 我面对的问题是,如果我通过haproxy上传到nodejs,并且由于丢失的数据包而发生“TCP(快速)重传”,客户端上的TX速率将下降到零,持续约5-10秒,并被淹没与TCP重传。 如果我直接上传到NodeJS,则不会发生这种情况(TCP重传也发生,但不会因为几十次重传而停滞)。 我的testing设置是一个简单的HTML4 FORM(方法POST),具有单个文件input字段。 NodeJS服务器只读取传入的数据,不做其他事情。 我已经在多台机器,networking,浏览器上testing过这个问题。 这是上传文件时客户端的TCPstream量转储: ….. TCP 1506 [TCP segment of a reassembled PDU] >> everything is uploading fine until: TCP 1506 [TCP Fast Retransmission] [TCP segment of a reassembled PDU] TCP 66 [TCP Dup ACK 7392#1] 63265 > http [ACK] Seq=4844161 Ack=1 Win=524280 Len=0 TSval=657047088 TSecr=79373730 […]
我目前有一个运行在PHP-FPM和APC的Nginx平台上的站点。 我一直在尝试的testingperformance非常好。 我现在想添加故障转移function,不能负担硬件负载均衡器,所以看着使用HAProxy。 这更多的是一个理论问题,但是两个Nginx服务器将能够提供比HAProxy更多的页面,并且意味着HAProxy将成为潜在的瓶颈。