Articles of 高可用性

共享存储的CLVM不可用于群集中的所有节点

如果使用cman / corosync运行3个或更多节点群集,并且某种共享块存储(SAN)仅连接到群集中的某些节点,那么如何在该存储设备上启用CLVM? 在我的示例中,我正在运行3节点群集,其中2个节点是“主要工作负载”,1个节点用于备份和归档。 主节点通过多path与FC HBA连接。 一切工作正常,我能够初始化该设备上的PV,并可以在两个节点上看到它: PV VG Fmt Attr PSize PFree /dev/mapper/mpathd san-vg1 lvm2 a– 500.00g 500.00g 现在,为了创build一个集群VG,我已经在集群中的所有3个节点上启用了防护(如果有的话,使用IPMI)。 fence domain member count 3 victim count 0 victim now 0 master nodeid 1 wait state none members 1 2 3 我也创build了一个聚集的VG( vgcreate -c )在那个PV上,也可以正常工作: VG #PV #LV #SN Attr VSize VFree san-vg1 1 0 […]

防止负载均衡器的DDoS攻击

我正在寻找在HAProxy服务器后面运行Docker Swarm来正确路由域名。 我有几个问题,因为负载平衡器是一个单一的故障点,关于使用一个负载平衡器的可行性。 DDoS攻击在很大程度上不会影响负载均衡器,因为所有stream量都会传递给其他计算机进行处理? 如何防止针对负载平衡器的DDoS攻击 如果负载平衡器确实下降,可以做些什么? 因此切断所有公众进入docker群的工人 对于高可用性的全部想法,我真的很陌生,如果有人能提供一些信息,我会很喜欢它。 或者也许有这样的服务,这会更好地使用,而不是使自己的。 谢谢,

为什么HAProxy返回503服务不可用,即使有些服务器可用?

HAProxy负载平衡器后面有10台服务器。 今天早上我更新并重新启动了只有一半的服务器 (5台服务器)。 其他服务器仍然function 。 我期望HAProxy发送请求到可用的服务器(它也有健康检查启用)。 但是HAProxy返回了大约503个错误 。 这怎么可能? 我可以改变一些configuration,以避免这种情况?

Keepalived触发器故障转移,而MASTER节点健康

我有AWS的Keepalived的主/从设置为Haproxy和EIP被用作VIP。 偶尔备份服务器触发故障转移,但MASTER节点是健康的。 以下是相应的日志。 备份服务器 Oct 10 04:14:32 Prod-WebAccessLb2 Keepalived_vrrp[2271]: VRRP_Instance(ProdWebCluster) Transition to MASTER STATE Oct 10 04:14:33 Prod-WebAccessLb2 Keepalived_vrrp[2271]: VRRP_Instance(ProdWebCluster) Entering MASTER STATE Oct 10 04:14:33 Prod-WebAccessLb2 Keepalived_vrrp[2271]: Opening script file /etc/keepalived/master.sh Oct 10 04:14:34 Prod-WebAccessLb2 Keepalived_vrrp[2271]: VRRP_Instance(ProdWebCluster) Received advert with higher priority 200, ours 100 Oct 10 04:14:34 Prod-WebAccessLb2 Keepalived_vrrp[2271]: VRRP_Instance(ProdWebCluster) Entering BACKUP STATE […]

Nginx限制活动连接的数量

我正在运行一个网站,有时在很短的时间内获得非常高的负载。 因此,我希望避免在15分钟的时间内偶尔放置大服务器。 Nginx有没有办法检测到工作人员正在拖延,并将用户redirect到静态页面,而不是将更多的工作添加到PHP-FPM队列中? 我还需要web服务访问,至less发出特定的HTTP返回代码,以便移动应用程序可以显示一个很好的消息。 谢谢,尼古拉斯

Apache负载平衡器粘性,但仍然具有高可用性

我有一个Apache 2.4设置,看起来像这样: Header add Set-Cookie "ROUTEID=.%{BALANCER_WORKER_ROUTE}e; path=/" env=BALANCER_ROUTE_CHANGED <Proxy balancer://pool1> BalancerMember http://server1:8099 route=1 BalancerMember http://server2:8099 route=2 ProxySet failonstatus=500,503 stickysession=ROUTEID </Proxy> RewriteRule ^/api/(.*)$ balancer://pool1/$1 [P] 我最近才添加了粘性( stickysession=ROUTEID等),我发现现在的粘性工作,但我已经失去了高可用性。 换句话说,如果其中一台服务器不再回复请求,则不会再从池中取出。 如果用户的信息已连接到该服务器,则用户将得到503错误。 什么是适当的设置兼具粘性和高可用性? 请注意,粘性不需要100%正确,我使用它来更好地使用本地caching。 如果来自用户的后续请求转到另一台机器上,那将会起作用,但速度会变慢。

桥接networking和绑定接口采取相同的IP

我有一个牛顿版本的HA(高可用)OpenStack控制器。 Openstack控制器OAMpipe理networking使用bond0接口与networkingIP地址172.28.252.198(主)。 我在系统中也有keepalivedconfiguration,我的控制器服务器使用172.28.252.200作为VIP地址(作为第二个)。 我正在使用桥梁networking系统。 在仪表板上创build运营商networking(与OAM为172.28.252.192/26的networking相同)后,在控制器上创build网桥接口brq88cc4ef1-0f。 我观察到IP地址<172.28.250.198>在桥(brq88cc4ef1-0f)和bond0接口上都被分配了。 在这种情况下,我无法访问我的控制器服务器。 我认为这个问题与接口上的IP冲突有关。 是否可以在同一个子网中使用openstack oampipe理networking和提供者networking? 你能帮我解答一下吗? 我怎样才能让系统只在一个界面上创buildnetworking? 31: brq88cc4ef1-0f: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP qlen 1000 link/ether 1e:bb:ff:aa:90:11 brd ff:ff:ff:ff:ff:ff inet 172.28.252.198/26 brd 172.28.250.255 scope global brq88cc4ef1-0f valid_lft forever preferred_lft forever inet 172.28.252.200/32 brd 172.28.250.200 scope global brq88cc4ef1-0f valid_lft forever preferred_lft forever 36: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc […]

无法从同一networking中的其他计算机访问Keepalived VIP

我正在裸机环境中尝试使用keepalived设置HA负载平衡。 当我尝试从同一networking中的其他机器上ping keepalivedconfiguration文件中给出的VIP时,它无法访问,但是当我在其中一台机器上停止keepalived时,另一台成为主机,IP地址自动分配。 keepalived configuration vrrp_instance VI_PUB { interface ens34 state MASTER virtual_router_id 52 priority 101 virtual_ipaddress { 192.167.3.54 } track_interface { ens34 } } virtual_server 192.167.3.54 8081 { delay_loop 4 lb_algo sh # source hash lb_kind NAT protocol TCP real_server 172.16.3.23 8080 { weight 1 TCP_CHECK { connect_timeout 15 nb_get_retry 3 delay_before_retry 2 } […]

build立两个networking的实验室

我正在尝试使用简单的AD,DHCP,FS服务器(最终希望创build一个RDS服务器场)在HyperV上build立一个实验室,其中有两个networking。 我的主机的networking和我的内部networking。 我想能够禁用一个网卡(提供互联网的主机,并仍然保持虚拟机之间的通信) 我的主机networking是一个192.168.1.x / 24networking。 我的私人networking是一个10.xxx / 8networking。 对于每个虚拟机,我有我的主机网卡,并创build一个内部网卡。 我在域控制器上的网卡设置为10.0.0.1。 我正在创build一个DHCP服务器来为10.xxx / 8地址发送地址,并希望它们到达主机networking之外,作为到Internet的默认网关。 我桥接这两个连接,或者我该怎么做? 我会遇到任何错误,或者我需要准备或阶段的东西? 你还需要什么其他信息? 任何意见将是有益的。

起搏器SCSI围栏不在资源组之后

我按照Edmund White的精彩描述设置了一个HA-ZFS集群(请参阅https://github.com/ewwhite/zfs-ha/wiki )。 有两个不同RAID级别的ZFS池(实际上是一个RAIDZ3和一个镜像)。 相应池中的设备使用fence_scsi进行防护,并且想法是,在正常操作下,每个节点导出一个池,而在错误情况下,一个节点导出两个池。 将一个节点放入维护之后,所有资源成功地重新定位到另一个节点,并在维护完成后手动触发pcs resource relocate run group-scratch的重定位( pcs resource relocate run group-scratch ),将其移回其原始节点。 现在pcs status如下所示: Cluster name: zfs-cluster Stack: corosync Current DC: pgsbfiler03 (version 1.1.16-12.el7_4.2-94ff4df) – partition with quorum Last updated: Tue Nov 14 16:21:49 2017 Last change: Tue Nov 14 15:58:48 2017 by root via cibadmin on pgsbfiler03 2 nodes configured […]