我必须用Debian盒子configuration一个冗余网关,我想得到一些build议,对我来说,最好的解决scheme是什么。 我的设置有一定的限制,我必须去(100%的工作)。 我阅读本指南: http : //www.linuxjournal.com/article/10964 和 https://www.debian-administration.org/article/678/Virtual_IP_addresses_with_ucarp_for_high-availability 我没有的一件事是第三个以太网接口。 问题是,我必须使冗余网关已经在生产中使用。 即使一秒钟也不能取消。 它有2个网卡: eth1 – internet facing vlan 1 bgp peering to provider A vlan 2 bgp peering to provider B (used as def route)* vlan 3 bgp peering to provider C eth0 – dmz facing vlan 10 DMZ1 vlan 11 DMZ2 vlan 12 DMZ3 这个原始的网关是bgp窥视(运行鸟),这是唯一真正使我的设置复杂化,防火墙政策本身并不多。 […]
目前我们正在使用HA代理来满足我们的负载平衡需求。 我们正在计划将LVS与HA代理集成起来,以创build一个负载平衡解决scheme,可以负责L4到L7负载均衡和HA。 去LVS的原因是 更好的L4支持长期的TCP会话 直接服务器返回(在HA代理中不可能) 在活动负载平衡器closures时故障切换现有连接。 现在,使用HA Proxy,备份负载均衡器只负责将新会话负载平衡到后端服务器,并且由主动负载平衡器服务的现有连接丢失。 我们希望,因为LVS在内核空间中运行,所以即使对于现有的会话,也可以进行故障切换。 这里有人使用LVS和HA代理相结合吗? 如果是这样的话,请您提供一些关于如何整合两者的指针 – 如果所有的数据包都被LVS接收,然后L7请求被发送到HA代理服务器?
我有2个后端运行apache2服务器,并在他们和客户之间有一个haproxy。 如果我testing了这些apache2服务器的任何一个ab我得到了一个1500TPS的北部,但是当我进行台架testingHAproxy时,我得到的值小于这个值。 这是没有道理的。 我正在使用简单的循环algorithm进行平衡,并将我的maxconn设置为8000,以便进行较好的测量。 我期望的是接近每个apache2节点(2800TPS)的总tps的tps。 相反,我得到的值比两个apache2节点中的任何一个都less。 可能是什么原因? 我做的板凳testing ab -t 60 -c 400 haproxyIP:1234 HEre是HAproxyconfiguration非常标准,但应该完成我所需要的。 global log /dev/log local0 log /dev/log local1 notice chroot /var/lib/haproxy maxconn 8000 user haproxy group haproxy daemon defaults log global mode http option httplog option dontlognull retries 3 maxconn 8000 contimeout 5000 clitimeout 50000 srvtimeout 50000 errorfile 400 /etc/haproxy/errors/400.http errorfile […]
这里有要求: 1.高可用性 2.负载平衡 第一个configuration 1.两台linux服务器分别configuration了一个静态IP地址:10.17.243.11,10.17.243.12 2. Keepalived已经安装并configuration一个VRRP实例,提供一个虚拟IP(VIP为10.17.243.10,主机为10.17.243.11,备份为10.17.243.12)。 一切正常。 只要VIP服务器已启动并正在运行,VIP就被分配给主服务器(10.17.243.11)。 一旦closures,VIP将被分配到备份服务器(10.17.243.12)。 这里的问题是所有的通信都进入主服务器。 第二种configuration 1.通过定义多个VRRP实例,我find了Keepalived的active-activeconfiguration。 因此,两台服务器都有两个IP(服务器#1为真实10.17.243.11和虚拟10.17.243.10,服务器#2为真实10.17.243.12和虚拟10.17.243.20。 一切正常。 我们有两个可以访问的VIP(HA)。 但是,所有到每个IP的通信都依赖于IP(单个服务器#1或#2)。 但是,我发现DNS上的一些技巧来克服这个限制。 但在我们的情况下,这是不能接受的。 题: 有没有办法让一个虚拟IP分配给两台服务器? 我的意思是这两个服务器正在处理一部分工作量(就像我们在Web服务器负载平衡中所做的那样)? 通过使用keepalived或其他工具? 提前致谢。
我正在使用以下内容: [root@kpdbm01 ~]# cat /etc/redhat-release Red Hat Enterprise Linux Server release 6.5 (Santiago) [root@kpdbm01 ~]# uname -a Linux kpdbm01 2.6.32-431.20.3.el6.x86_64 #1 SMP Fri Jun 6 18:30:54 EDT 2014 x86_64 x86_64 x86_64 GNU/Linux [root@kpdbm01 ~]# rpm -q rgmanager cman corosync ricci rgmanager-3.0.12.1-19.el6.x86_64 cman-3.0.12.1-59.el6_5.2.x86_64 corosync-1.4.1-17.el6_5.1.x86_64 ricci-0.16.2-69.el6_5.1.x86_64 [root@kpdbm01 ~]# 我试图使用clusvcadm来Disable / Enable / Relocate <group>而不pipe我最终与Failure 。 我在/var/log/cluster/corosync.log看到很多消息,比如一个低音/var/log/cluster/corosync.log : […]
我已经在DRBD之上构build了一个带有OCFS的双节点存储设置,为几台ESXi服务器提供存储。 是否有可能在两个存储节点上设置iSCSI目标,并在服务器故障的情况下使其中一个节点接pipe另一个节点? 如果有其他类似的设置可以让我做到这一点,请让我知道。 Howto's非常受欢迎。
我是与HAProxy合作的新手。 我无法弄清楚如何让HAProxy重新连接到后端,并重新启动。 我有两个后端服务器的configuration。 当他们正在运行,我开始HAProxy一切正常。 握手通过。 然后我停止其中一个后端,stream量正确地转到正在运行的服务器上。 但是,当我再次启动停止的服务器HAProhy不认识到这一点。 只有在HAProxy服务重新启动后,才能重新连接。 如何解决这个问题? 谢谢!
我们正在两个地点的服务器上configurationproxmox 每个位置都有; 1个hp c7000机箱,带16个刀片1个hp proliant dl585 我们还计划在每个位置添加一个24TB的SAN。 我们将为每个位置设置两个群集,并将c7000作为可故障转移到其他刀片的HA群集。 c7000中的每个刀片都有1x 1TB的硬盘,缺省的proxmox安装占用了vz转储的大部分空间。 我想在安装时对硬盘进行分区,并在一个分区上保留50GB左右的proxmox安装,并留下另一个分区作为DRBD存储。 我可以在启动时运行此安装来设置proxmox安装细节Linux ext4 maxroot = 20 swapsize = 30 如果我添加标志minfree = nGB 这是否会创build另一个分区,我可以configuration为DRBD存储? 还有这个标志maxvz = nGB 这设置最大的数据目录分区,我如何configurationproxmox不存储在本地分区上的数据转储,只有在DRDB存储? 谢谢
这是问题继续。 所以,我有一个vlan中的两个testing服务器。 srv1 eth1 10.10.10.11 eth2 10.20.10.11 srv2 eth1 10.10.10.12 eth2 10.20.10.12 Cluster VIP – 10.10.10.100 具有两个接口的Corosyncconfiguration: rrp_mode: passive interface { ringnumber: 0 bindnetaddr: 10.10.10.0 mcastaddr: 226.94.1.1 mcastport: 5405 } interface { ringnumber: 1 bindnetaddr: 10.20.10.0 mcastaddr: 226.94.1.1 mcastport: 5407 } 起搏器configuration: # crm configure show node srv1 node srv2 primitive P_INTRANET ocf:pacemaker:ping \ params […]
经过长时间的search,我找不到解决scheme或path来解决我的问题,同步启动Apache和后端服务器。 我有一个Apache2使用LoadBalancer与mod_jk,平衡请求4后端服务器使用JBoss和AJP协议。 所以所有的configuration工作得很好,但我有一个与Apache同步和JBoss应用程序启动时间的小问题。 在启动应用程序之前,JBoss已经启动并接受了AJP端口中的连接,所以当JBoss节点已经在Apache LB中使用时,应用程序还没有可用,并且当JBoss启动或者当我需要replace时,我有一段时间的失败请求应用程序的版本。 我知道有可能从LB删除节点,并在节点之后我可以返回相同的LB,所以我的问题是,是否有可能使用URL检查或configurationJBoss只有部署所有应用程序后听AJP端口或其他选项,我不需要直接从LB删除节点,当相同的启动,或在JBoss服务器没有closures,但只有应用程序是closures的情况下? 我看到JK中的参数fail_on_status,在这种情况下是唯一的select吗? 任何经验将非常感激。 谢谢