我目前有一个域www.example.com最终被路由到一个Jettynetworking服务器。 该域中存在许多端点,例如/register , /sign-in和/about 。 所有这些端点都由相同的代码库提供服务。 我现在的架构类似于: AWS Route 53 -> ELB -> (ASG) Application [jetty] 我想要做的是将我的代码库分成3个,这最终意味着我有3个EC2实例运行/register , /sign-in和/about 。 当然,我想保留可扩展性 – 但是我想避免使用AWS ALB。 这是我目前正在查看的上述解决scheme,我的问题是在 – 这似乎是合理的? 跳过2个ELB是否有延迟问题? 这种types的体系结构还有其他不可预见的问题吗?还有其他的select。 AWS Route 53 -> ELB -> (ASG) Nginx Routing -> ELB -> (ASG) Application [jetty] -> ELB -> (ASG) Application [jetty] -> ELB -> (ASG) Application […]
我们正在使用Google存储分区在网站中共享静态数据:图片,CSS,js等 为了加速访问,我定义了一个带有这个桶的负载均衡器作为后端,同时云cdncheckbox被选中,并且共享负载平衡器ip。 我做了一些相同的网页请求,具有相同的CDN资源,但云CDN选项卡显示此负载平衡器的caching命中不适用。 同样,在Chrome开发networking面板中,对共享文件的访问似乎并没有加速,所以我想问一下你对我可能错过了什么的看法。 也许有没有谷歌networking服务在地理上接近我的地区? 亚历克斯先生非常感谢
脚本 对于我的应用程序,我想有高度可用的MySQL / MariaDB设置。 由于自动数据冗余和即时可用性,我发现Galera Cluster在这种情况下很有趣。 我的目标是这样的: 隐藏应用程序的集群复杂性(集群可以变得更大,并且改变拓扑添加一些asynchronous节点) 透明地处理应用程序之外的故障转移 为某些常见的情况写入和读取同步实例提供负载均衡, 仍然允许应用程序访问特定的节点,例如针对分析的顺序读取进行优化的例如asynchronous节点。 如果这个节点失败,我希望应用程序故障转移到标准的Galera实例,透明地保持一切正常运行。 做到目前为止 我已经阅读了许多关于如何设置高可用性和负载平衡的MySQL集群的HAProxy和Keepalived串联的文章,但没有一篇解释了为什么要使用这个二重奏的MySQL / MariaDB / Galerascheme。 一些例子: HAProxy + Keeplived,任何MySQL CE集群+ Galera: https ://severalnines.com/resources/tutorials/mysql-load-balancing-haproxy-tutorial HAProxy + Keepalived,Galera集群: http : //www.fromdual.com/making-haproxy-high-available-for-mysql-galera-cluster HAProxy + Keepalived,asynchronous集群: https : //www.digitalocean.com/community/tutorials/how-to-use-haproxy-to-set-up-mysql-load-balancing–3 仅限HAProxy: https : //www.digitalocean.com/community/tutorials/how-to-use-haproxy-to-set-up-mysql-load-balancing–3 当涉及到虚拟IP分配时,它由Keepalived根据自己的可脚本化健康检查器和VRRP 。 Keepalived也支持负载均衡,实现了多种algorithm,通过这些algorithmLB到目的地: https ://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/7/html/Load_Balancer_Administration/ch- 初始设置-VSA.html HAProxy为HTTP提供了一些高级function,但这不是我的情况。 问题 在Keepalived for Keepalived for MySQL中使用HAProxy的好处是什么?
我们正在使用一个硬件负载均衡器,它将用户请求发送到4个应用服务器(varnish – > apache),按照最小负载的基础。 我们的要求是阻止某些IP(不是全部范围),如果需要的话。 但是,即使我们可以从varnishncsa日志中获得客户端IP,并且如果我们编写了一个acl块并阻止了某个Ip,它也不会有效地阻止它,并且用户stream量正在达到apache。 但是,如果我们使用服务器主机名而不是负载均衡器url来访问url,那么这个acl块是行得通的。 所以我们可以得出这样的结论:由于LB每个请求发送两个IP(1.自己的NAT Ip和2.客户端IP在X-forwarded-for报头格式中),清漆无法阻塞。 我们正在使用清漆3。 我们的查询是 – 如果清漆只在varnishncsa日志中显示客户端IP,为什么不给这个IP优先,而不是LB NAT ip。 当stream量通过LB到达时,是否有其他机制阻止客户IP清除?
我正在使用loadbalance和failover来运行Apache( mod_proxy/mod_proxy_balancer )的一些testing,但是现在我在loadbalance(tomcat)成员在Windows环境中时遇到问题。 例: Apache – Ubuntu | | / \ Tomcat Tomcat Windows Ubuntu 设置: <Proxy balancer://lb_lab> #linux BalancerMember http://192.168.0.10:8012 #windows BalancerMember http://192.168.0.20:8080 </Proxy> <Location /test> Allow From All ProxyPass balancer://lb_lab/test ProxyPassReverse balancer://lb_lab/test </Location> testing用例: 我正在运行两个Tomcat,如果我closuresWindows Tomcat,Apache不会识别它是脱机的。 否则,通过closuresTomcat Ubuntu,Apache通常会认识到它处于脱机状态并执行故障转移。 仅当Windows防火墙处于活动状态时,才会出现此行为,但是即使执行端口/服务发行版也不起作用。 到目前为止,我所能诊断的是,在防火墙打开的情况下,Apache发送一个SYNC标志并且不会收到任何回应。 在防火墙closures的情况下,Apache发送SYNC标志并接收一个RESET标志作为返回。 对不起,我的英语,如果你不明白,我改善这个问题,评论。
我在EC2下configuration了一个完整的环境,没有Elastic Beanstalk。 我们最终意识到我们需要使用Elastic Beanstalk,因为它只是更好,我们需要的是,我们需要Load Balancer和Auto Scaling Groups,因为我们预计会有大量的stream量。 我们目前有3个静态网站以及2个导出API的网站,所以它是有意义的。 我似乎缺乏的是什么时候我想要使用Elastic Beanstalk AMI(从我意识到这是一个无服务器实例)。 对博客和静态网站有用吗? 在Nginx下运行PHP有用吗? 原因似乎是访问我们的API的最有效的方式。 另外,如何将所有AMI实例从常规EC2环境迁移到Elastic Beanstalk环境? 另一个问题是弹性IP的局限性,我设置了更多的机器,我发现它只限于5个静态IP地址,但是如何将我的namecheap域名redirect到服务器呢? 最后,我想用Route53和Cloudfront全部在ELB之下进行设置,以最大限度地减less来自世界各地的API的延迟,我所阅读的策略是明智和推荐的。
我想在我的多WAN路由器中使用死网关检测 (DGD)。 问题是:我该怎么平? 显然它应该是总是可用的,以避免错误的否定。 我试图使用Google DNS服务器,并失败。 当涉及到DNS查询时,他们有100%的正常运行时间,但是他们并不总是很好地回应ping。 所以我得到了很多的错误的否定。 还有其他DNS服务器,但我担心他们的行为与Google相似。 另一个想法是使用/从亚马逊的AWS租用的东西。 唯一的事情是我的路由器需要一个IP(而不是主机名)DGD。 有没有办法确保一个特定的IP始终可用于亚马逊? 我没有被绑定到亚马逊。 谷歌,Azure或其他也不错。 由于我们的主机使用负载平衡器,所以ping我们的网站将无法正常工作。
基本上我想检查,如果我可以使用Apache的load_balancer。 我不是专家。 我正在使用centos7 [root@lb ~]# rpm -qa | grep http httpd-devel-2.4.6-45.el7.centos.4.x86_64 httpd-tools-2.4.6-45.el7.centos.4.x86_64 httpd-2.4.6-45.el7.centos.4.x86_64 httpd-manual-2.4.6-45.el7.centos.4.noarch 我想添加一个工作人员,只是做一个redirect…但我需要添加de jk。 我的想法: ServerName moodle ServerAlias moodle.mydomain RedirectMatch ^/$ http://moodletest.mydomain JkMount /declare it on worker/* hn <Location /> Order deny,allow Allow from 10.0.0.0/8 Allow from all </Location> ErrorLog /var/log/httpd/error.log〜 可能吗? 问候,Marcelo.-
这里是场景:Proxy-> app1和app2 安装在roundrobin上 我们想要将新代码部署到APP2。 如何保持新的连接去APP2,同时保留人们去APP1。 所以当我们部署到APP2的时候,所有的新连接都只会去APP1。 我希望能够像在5PM一样,开始有新的连接去APP1,在半小时内,人们不再连接到APP2,我可以开始部署新的代码。 然后切换进程,以便我们可以部署到APP1。 我试过了:坚持dst 备用 cookie检查权重 我认为cookie检查权重将做到这一点,但是我将不得不重新启动haproxy
这已经降落在我的家门口。 我一直在这里指示错误的董事会提出这个问题。 我们在Azure中有一个testingSP2016环境。 目前虚拟机设置为1个App(Web01),1个DB(DB01)服务器。 他们已经添加了一个新的应用程序服务器(Web02)和一个新的数据库服务器(DB02),并想testing它。 我被要求只在Web02上指向现有的负载均衡器。 它目前仅指向Web01。 然后故障转移数据库,所以DB02是主要的。 我可以故障转移数据库,这是我努力的负载平衡。 设置这个人的人已经离开了,我一直负责这样做。 这是公平的说我的Azure /负载平衡的知识是……….接近零。 任何帮助,您可以提供将不胜感激。谢谢 担