Articles of 起搏器

起搏器集群问题 – 如果从主防火墙拔下网线,备用防火墙不会接pipe

我有一个与心脏起搏器群集有关的问题。 我在Active / Backup HA中使用了两个防火墙。 检测信号IP在专用networking上为10.0.0.1 (FW 1)和10.0.0.2 (FW 2)。 局域网上的stream量IP为131.107.2.2 (FW 1), 131.107.2.3 (FW 2),虚拟IP为131.107.2.101 。 广域网上的stream量IP为192.168.100.98 (FW 1), 192.168.100.99 (FW 2),虚拟IP为192.168.100.101 。 如果FW 1断电,则FW 2将按照预期进行接pipe,但是如果LANnetworking上的网线断开,则不会发生切换。 以下组件正在集群中使用: 起搏器 corosync DRBD contrackd 任何帮助是极大的赞赏。

如何在CentOS 7上彻底清除pacemaker,corosync和pcs?

使用两个节点: node1:192.168.0.1 node2:192.168.0.2 在两台服务器上安装HA工具: yum install pacemaker pcs (它将包括安装corosync) 在两台服务器上: passwd hacluster 为集群设置相同的密码。 在两台服务器上: systemctl enable pcsd.service systemctl start pcsd.service validation群集节点: node1# pcs cluster auth 192.168.0.1 192.168.0.2 他们都成功通过authentication。 生成corosyncconfiguration: node1# pcs cluster setup –name mycluster 192.168.0.1 192.168.0.2 启动群集: node1# pcs cluster start –all 成功。 确认状态: pcs status corosync Output Membership information ———————- Nodeid Votes Name […]

如何从https://github.com/ClusterLabs/fence-agents安装fence_ovh.py

我正在尝试使用OVH服务器作为群集。 我在CentOS 7上安装了pacemaker-1.1.10,corosync-2.3.3和pcs工具。 现在我想使用https://github.com/ClusterLabs/fence-agents/blob/master/fence/agents/ovh/fence_ovh.py 我怎样才能build立和从https://github.com/ClusterLabs/fence-agents安装 当我运行这个 $ git clone https://github.com/ClusterLabs/fence-agents $ cd fence-agents $ ./autogen.sh && ./configure && make && sudo make install 它停在./configure autoreconf: Entering directory `.' autoreconf: configure.ac: not using Gettext autoreconf: running: aclocal -I make -I m4 configure.ac:70: warning: AC_LANG_CONFTEST: no AC_LANG_SOURCE call detected in b ody ../../lib/autoconf/lang.m4:193: AC_LANG_CONFTEST is expanded from… […]

在Corosync和起搏器configuration中,pcs状态报告输出错误

我在两台Centos服务器上configuration了Corosync和Pacemaker,一切工作正常。 问题是当我问题 pcs status 它报告: Online: [ Node1.localomain ] OFFLINE: [ Node2.localdomain ] Full list of resources: VIP (ocf::heartbeat:IPaddr2): Started Node1.localomain haproxyLB (ocf::heartbeat:haproxy): Started Node2.localomain 这在现实中恰恰相反! Node1.localomain是node1的主机名,Node2.localomain是节点2的主机名。 事实上,Node2.localomain采取了VIP和正在服务的请求,但正如你所看到的PC报告,VIP是在Node1.localdomain和Node2.localdomain处于脱机状态启动! 你们有什么想法吗?

ocfs2和packemaker:更改locking级别

我想用pacemaker和dlm运行ocfs2。 基于这个博客我们有三级锁。 哪里可以定义locking级别?

ocfs2和packemaker没有ocf:心脏起搏器:o2cb

在ubuntu 16.04 ocfs:心脏起搏器:o2cb不工作了,但我无法find任何文件描述ocfs2 packeamker没有OCF:起搏器:o2cb我drbd设备和起搏器工作正常,但ocfs工具不知道pcmk集群: # mkfs.ocfs2 -T mail –node-slots 2 –label ocfs2_fs –cluster- stack=pcmk –cluster-name=debian /dev/drbd1 mkfs.ocfs2 1.6.4 Cluster stack: pcmk Cluster name: debian NOTE: Selecting extended slot map for userspace cluster stack Overwriting existing ocfs2 partition. mkfs.ocfs2: Unable to access cluster service while initializing the cluster 我的群集状态: # pcs status Cluster name: debian Last […]

起搏器SCSI围栏不在资源组之后

我按照Edmund White的精彩描述设置了一个HA-ZFS集群(请参阅https://github.com/ewwhite/zfs-ha/wiki )。 有两个不同RAID级别的ZFS池(实际上是一个RAIDZ3和一个镜像)。 相应池中的设备使用fence_scsi进行防护,并且想法是,在正常操作下,每个节点导出一个池,而在错误情况下,一个节点导出两个池。 将一个节点放入维护之后,所有资源成功地重新定位到另一个节点,并在维护完成后手动触发pcs resource relocate run group-scratch的重定位( pcs resource relocate run group-scratch ),将其移回其原始节点。 现在pcs status如下所示: Cluster name: zfs-cluster Stack: corosync Current DC: pgsbfiler03 (version 1.1.16-12.el7_4.2-94ff4df) – partition with quorum Last updated: Tue Nov 14 16:21:49 2017 Last change: Tue Nov 14 15:58:48 2017 by root via cibadmin on pgsbfiler03 2 nodes configured […]

Corosync – 停止服务会使服务器崩溃

我正尝试在一个Xen Server上搭build两个半虚拟化的CentOS 5.4机器。 我正在使用Pacemaker + Corosync,并遵循http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf和其他网站上的说明。 无论如何,当我尝试手动停止corosync服务时,整个虚拟机大约有80%的时间被“等待corosync服务卸载”消息locking,我不得不手动closures机器。 对于剩余的20%,虚拟机保持响应并为上述消息添加点,但实际上并不会停止服务。 互联网上关于这个特定错误的资源并不多。 任何想法呢? 提前致谢。

分裂大脑恢复文件系统未安装后

我有一个主动/被动高可用性集群与心脏起搏器+裂脑。 裂脑状态后,我使用自动裂脑恢复来恢复我的系统。 问题是,由于文件系统资源是由CRMpipe理的,所以在拆分脑部恢复之后不会挂载。 裂脑恢复后没有任何安装! 似乎我应该使用stonith设备,但是我的老板要求我解决它,没有任何额外的设备! 我该如何通知心脏起搏器的分裂情况,以便重新安装文件系统资源? 编辑:我的CRMconfiguration node drbd3 node drbd4 primitive apache ocf:heartbeat:apache \ params configfile="/etc/apache2/apache2.conf" httpd="/usr/sbin/apache2" \ op monitor interval="5s" primitive drbd_disk ocf:linbit:drbd \ params drbd_resource="r0" \ op monitor interval="15s" primitive fs_drbd ocf:heartbeat:Filesystem \ params device="/dev/drbd/by-res/r0" directory="/mnt" fstype="ext4" primitive ip1 ocf:heartbeat:IPaddr2 \ params ip="10.8.0.95" nic="eth0" group group1 ip1 apache ms ms_drbd drbd_disk \ […]

从不同的子网Ping Linux虚拟IP HA集群不起作用

我已经使用Corosync / Pacemaker设置了一个Linux集群,并且这两个集群节点位于共享一个虚拟IP的同一个子网中。 对于同一个子网内的机器,他们可以成功地ping虚拟IP“135.121.192.104”。 但是,如果我试图从另一个子网上的机器ping虚拟IP“135.121.192.104”,那么它不响应我的ping。 其他机器驻留在子网“135.121.196.x”上。 在我的机器上,我的ifcfg-eth0文件中有以下子网掩码: NETMASK = 255.255.254.0 下面是我的输出为crmconfiguration显示: [root@h-008 crm]# crm configure show node h-008 \ attributes standby="off" node h-009 \ attributes standby="off" primitive GAXClusterIP ocf:heartbeat:IPaddr2 \ params ip="135.121.192.104" cidr_netmask="23" \ op monitor interval="30s" clusterip_hash="sourceip" clone GAXClusterIP2 GAXClusterIP \ meta globally-unique="true" clone-node-max="2" property $id="cib-bootstrap-options" \ dc-version="1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87" \ cluster-infrastructure="openais" \ expected-quorum-votes="2" \ no-quorum-policy="ignore" […]