我有以下情况: network1 – gate – network2 network2有几个服务。 network1有很多开发者。 我需要从开发者访问分离访问的服务,例如: dev1应该可以访问host1和host2上的debugging端口, dev2应该有权访问host1和host3和host4上的debugging门户 dev3应该可以访问dev3上的http,debug和jmx端口 所以我需要一个authentication和授权系统为不同的服务。 HAProxy可以在TCP层面上工作,所以我需要在AA系统中,我认为radius应该没问题。 是否有可能连接半径haproxy和访问我想如何使他们?
我在tcp模式下使用haproxy。 我有一个前端可以监听几个端口: frontend front mode tcp bind *:20000 bind *:20001 … default_backend back 还有一个后端在不改变端口的情况下转发这些请求: backend back server myserver server.host.com check port 20000 server anotherServer another.host.com check port 20000 server mybackup backup.host backup.host.com check port 20000 backup # some other useful backend logic, like logging # which I don't want to repeat a bunch of times […]
我有一个生产mysql服务器的农场,目前受限制的密码保护。 我希望限制在networking级别访问这些系统,但是必须考虑到开发者社区的一些成员需要只读访问来debugging应用程序问题的事实。 我知道我可以通过创build可以从不同的ip子网(例如'user'@10.0.0.8')在不同级别authentication的mysql用户来做到这一点,但我想避免重构代码来引入新用户应用程序(这将需要大量的QA工作)。 理想情况下,我只是想打破mysql服务器(在一个专用的子网)和开发人员(在一个专用的子网)之间的networking链接,并允许应用程序服务器像以前一样继续访问mysql服务器。 这似乎是某种基于TCP的代理与身份validation将适合此目的。 通过这种方式,我可以在代理上创build用户特定的帐户,这将创build审计跟踪,并向开发人员提供短期的随需访问,而无需修改MySQL服务器上的用户数据库。 但是,HAProxy和MySQL代理等软件中的authentication选项显得非常有限。 有没有人执行类似的东西?
我的老板要求我们在野蛮应用服务器上准备一个我们的应用程序集群。 我已经devise了两个haproxy(用于负载平衡),两个Apache服务器(ldap身份validation)和两个萤火虫服务器(托pipe应用程序)的架构。 我很困惑我是否可以在haproxy和wildfly之间跳过apache。 是否可以使用证书颁发机构(SSL / TLSconfiguration)和ldap身份validation来configurationHAproxy。如果可以在HAProxy级别实现这些身份validation,那么在它们之间放置apache将无用而浪费计算资源。 另一个困惑是LDAP身份validation可以在apache和wildfly上处理,我应该select哪个选项? 在这方面,你们宝贵的build议将会在改善集群架构方面受到赞赏。
我试图将具有弹性IP的Amazon Linux AMI实例configuration为独立后端服务器的代理。 我正在尝试做HTTPS TCP Passthrough只,但我不能得到它的工作! 任何帮助感谢! defaults mode tcp log global maxconn 15000 frontend https_frontend bind *:443 mode tcp option tcplog default_backend https_backend backend https_backend mode tcp balance roundrobin option ssl-hello-chk server app1 xxxx:443 check
我是haproxy的新手,我正努力尝试configuration它。 我想要的是: 在浏览器中input:proxy.company.com/Test/App 请haproxy在webapp01.company.com/Test/App和webapp02.company.com/Test/App之间平衡请求 保持基本URL proxy.company.com/Test/App 我到目前为止:我有两个网站设置: webapp01.company.com/Test/App webapp02.company.com/Test/App 这两个工作,当我浏览到每个单独我得到一个屏幕与服务请求服务器(WebApp01或WebApp02)的名称。 但是,当我去proxy.company.com/Test/App我得到一个404错误。 我期望的请求被路由到webapp01或webapp02,我希望看到服务器请求的服务器的名称。 这是我目前的configuration: global log /dev/log local0 log /dev/log local1 notice chroot /var/lib/haproxy user haproxy group haproxy daemon defaults log global mode http option httplog option dontlognull contimeout 5000 clitimeout 50000 srvtimeout 50000 errorfile 400 /etc/haproxy/errors/400.http errorfile 403 /etc/haproxy/errors/403.http errorfile 408 /etc/haproxy/errors/408.http errorfile 500 /etc/haproxy/errors/500.http […]
我一直在使用HAProxy两年,具有相同的工作configuration。 我已经在Ubuntu 14.04,15.10上多次安装了HaProxy,而且我正在从HaProxy的内存崩溃中解脱出来。 它不再有效。 我已经附加了我一直在使用的configuration以及我在下面的syslog中看到的错误。 我有几个月前创build的一些ubuntu服务器,它们运行的是相同版本的HAProxy,它们可以使用确切的configuration,但不知道确定问题的最佳方法。 版本信息: HA-Proxy version 1.5.14 2015/07/02 Copyright 2000-2015 Willy Tarreau <[email protected]> 如果你想尝试,你可以用www.cnn.com替代www.mywebsite.com。 haproxy.cfg global daemon maxconn 256000 user haproxy group haproxy stats socket /var/run/haproxy.sock mode 0600 level admin pidfile /var/run/haproxy.pid spread-checks 5 defaults maxconn 256000 log global option redispatch option allbackups option abortonclose option http-server-close timeout connect 5000 timeout client […]
重新加载后,旧的haproxy进程保持在那里,并不释放内存(有时候它的行为是不一致的)。 杀死旧的进程(几天之后),释放内存。 预期的行为:我们有很长时间的连接,但是这些连接在重新加载之后应该在旧的进程中最多4-7小时后清除。 ubuntu@ip-10-0-5-193:~$ uname -a Linux ip-10-0-5-193 3.13.0-48-generic #80-Ubuntu SMP Thu Mar 12 11:16:15 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux ubuntu@ip-10-0-5-193:~$ haproxy -v HA-Proxy version 1.5.14 2015/07/02 Copyright 2000-2015 Willy Tarreau <[email protected]> ubuntu@ip-10-0-5-193:~$ date Tue Apr 5 00:44:29 UTC 2016 ubuntu@ip-10-0-5-193:~$ ps -ef | grep [h]aproxy haproxy 7494 1 15 Apr01 ? 13:26:20 /usr/local/sbin/haproxy […]
我试图在VirtualBox上使用haproxy来平衡负载,只是为了在数字海洋上继续设置它之前,看到事情正常。 当我select模式http时,我可以决定如何平衡请求,但是当我select模式tcp时,来自同一台机器/客户端的所有请求都会转到同一台服务器,而不会交替。 我希望它与roundrobin或leastconn交替。 我想build立最简单的configuration文件,可以实现这一点。 这是我迄今为止。 但是这不是我所描述的。 global chroot /var/lib/haproxy pidfile /var/run/haproxy.pid maxconn 4096 user haproxy group haproxy daemon defaults mode tcp frontend main *:80 default_backend nodes backend nodes balance roundrobin server goapp1 192.168.1.101:80 check server goapp2 192.168.1.102:80 check 我怎样才能做到这一点?
是否有办法loggingTLS相互authenticationstream程的底层细节(最重要的是 – 发送给客户端和签名响应的挑战)。 任何工具的解决scheme都是值得欢迎的:nginx,Apache(mod_proxy),HAProxy等