Articles of drbd

Hyper-V上的起搏器和DRBD

我需要为Apache网站设置双节点Web群集。 我有Hyper-V基础架构,只有两个节点。 这些要点是负载平衡和高可用性。 我使用CentOS 7,Pacemaker集群,MariaDB 10安装和configuration了两台虚拟机。我在Pacemaker中configuration了主/从ocf :: percona:mysql资源。 接下来,我需要一个网站内容的共享存储。 我在双主模式下创build了DRBD磁盘,在其上创build了GFS2。 我没有增加Pacemakertesting它。 一切运行良好,但为了使其自动提升,我需要通过Pacemakerpipe理这些。 问题是,Pacemaker需要栅栏来创buildDRBD资源,但是没有用于Hyper-V的stonith代理。 我在之前的CentOS 6版本中看过,可以创buildSSH stonith代理。 我试图做到这一点,但个人电脑不适用于它。 现在可以在Hyper-V之上使用Pacemaker吗? 或者可能存在另一种在双基层中使用DRBD的方法?

DRBD for Windows / Hyper V

DRBD是用于在另一个服务器上镜像存储的协议。 本质上,它为您提供跨两台或多台物理机器的高可用性(HA)存储集群,而不需要昂贵的SAN。 看起来这种设置在Linux中是可行的,但我使用Windows 2012和Hyper V来托pipe我的虚拟机,其中一些是Win 2012,其中一些是Linux。 简而言之,是否可以在Windows机器上创buildDRBD设置 – 我已经看到了Starwind应用程序,但他们想为它赚钱 – 您可能还需要购买SAN? 或者可以在2个Linux机器上创buildDRBD共享,然后将该存储用于群集Hyper V存储? Linux上的DRBD共享可以作为iSCSI目标/ SMB 3卷呈现吗?

虚拟环境中的DRBD疯狂(XEN)

现在我正在使用DRBD在两个不同的XEN VPS上复制两个目录(/ var / www和/ var / spool / mail),彼此距离7000英里! 最重要的是,我使用透明的IPSec隧道VPN来连接私有层上的两个节点,似乎并不公平我知道,现在我将(www和mail)文件夹放在DRBD目录中,我只是软链接到每台机器,它的工作和复制,但由于我有太多的负载在networking级别(距离和安全)我的磁盘读/写速度是可怕的,我打开一个网页在6分钟甚至更多,我有邮件延迟和一天结束时,我面对(双裂脑),两个节点重新启动,这是当DRBD带来两个节点作为次要的,挂载过程将永远不会发生,导致没有活跃的根文件的Apache启动和在这个确切点冗余杀死可用性! 我试图释放DRBD分区上的负载,以加速一些东西,所以我把这两个目录都复制回原来的位置,并在DRBD分区上build立了一个软连接,但是这个没有用,现在我需要好的build议! (我正在使用OCFS2 BTW作为DRBD分区)

在Linux服务器之间实时同步文件没有中间或远程共享有什么select?

Quickfix(一个开源的FIX引擎)在服务器的文件系统(在这种情况下是Linux)中持有状态信息和发送/接收的消息。 为了实现灾难恢复,我希望这些文件能够通过广域网在备用服务器上近实时地保持最新状态,以使备用服务器能够启动并知道系统的状态。 持久性文件是可以人类分析的文本,并且在一天中累积的文件很less会超过千兆字节。 他们每晚都被清除。 我希望同步直接发生,没有在第三台服务器上的远程共享文件系统。 我还需要这些文件来保存主服务器的完整和突然的销毁。 Rsync太慢,不够实时有用。 DRBD似乎是做这项工作的一种select,但我希望评估替代方法。 除了DRBD和rsync之外,有什么办法可以做到这一点呢?

DRBD与MySQL

关于使用DRBD为MySQL提供HA的问题 我需要确保备份MySQL实例在发生故障转移时总是处于function状态。 例如,如果主模具部分通过交易进行交易,会发生什么情况? 我们将最终将数据复制到MySQL无法处理的次要数据? 或者,如果networking在两者同步的同时消失了,而不是所有的数据都能通过。 似乎有可能进入一个状态,在辅助数据不完整,使得无法启动和读取数据库。 我错过了什么吗?

起搏器corosync 2节点与第三法定人数

我无法弄清楚如何configuration第二个简单的法定人数的双节点安装程序。 似乎认为所有的节点都有能力作为一个完整的后备节点,当我只想要一个与STONITH的法定数量工作时,本质上是一个2 + 1 DRBD-MySQL节点系统。 任何关于如何使第三节点只是法定成员的技巧或文档,将不胜感激。

使用drbd和心跳进行Mysql复制

我正在为现有的Ubuntu服务器设置设置备份服务器。 我正在运行DRBD(协议C)以及configuration的心跳线,以便在发生错误时启动备份服务器上的MySQL5服务器。 我想在复制后使用drbd和心跳来启动mysql服务器。 我更改了my.cnf文件中的datadir和apparmor.d / usr.bin.mysqld。 当drbd设备未安装时,Mysql启动。 我的日志显示如下: Oct 26 12:55:28 twyford-hambc2 mysqld[27627]: 101026 12:55:28 InnoDB: Operating system error number 13 in a file operation. Oct 26 12:55:28 twyford-hambc2 mysqld[27627]: InnoDB: The error means mysqld does not have the access rights to Oct 26 12:55:28 twyford-hambc2 mysqld[27627]: InnoDB: the directory. Oct 26 12:55:28 twyford-hambc2 mysqld[27627]: […]

DRBD LVM支持vs.物理和LVM​​filter

我们正在使用现有的Debian 6encryptionRAID1设置来testingDRBD /起搏器。 我们有一个比较笼统和一个比较具体的问题: 1)DRBD支持与物理量(一般devise选项问题) 我们想在我们的DRBD /起搏器设置中运行大量的虚拟服务器。 看了(在这个论坛上得到了很大的帮助 – 谢谢DOC)在使用LVM作为支持设备时,似乎如果我们想要快速启动并拆除逻辑卷,那么我们可能会更好地使用LVM的DRBD作为一个物理卷。 这听起来正确吗? 就我们的目的而言,“支持”还是“实物量”是更好的select? 是否有一个devise选项可以让我们有一个drbd,把所有的逻辑卷,这将允许我们有一个更简单的DRBD和起搏器configuration? 如果我们要继续使用LVM作为支持设备,您是否会为每个逻辑卷有一个drbd,并据此创build我们的起搏器CRM? 除了这些使用encryptionRAID1的问题(所以我们一直在drbd.conf中的磁盘/设备映射中挣扎),我们这里的一部分复杂性。 2)LVMfilter问题(更具体的问题) 在“将DRBD资源configuration为物理卷”文档中,您可以在您的drbd上创build物理卷后调整lvm.conf:filter = [“a | drbd。 |”,“r |。 |” ],write_cache_state = 0,然后擦除lvmcaching。 问题是,一旦我们这样做,我们不能得到任何“pvscan,vgscan,lvscan”的工作,我们需要卷组是积极的,以添加我们的修改我们的下一个逻辑卷在drbd。 一个设置文件说,你需要更新intrafs,这样做后,我们无法启动机器了(这是一个testing机,所以只是不方便)。 问:我们在这里做错了什么? 该文档似乎表明,在调整“lvm.conf”之后,您应该能够使用诸如“vgchange -aey volumegroup”之类的东西,但是我们所有的这些操作都回来了。 这是我们需要临时更新“lvm.conf”回到原来的filter,添加一个逻辑卷,然后改变“lvm.conf回去吗?FYI – 如果我们从原来的filter启动,我们的DRBD挂载,但我们得到的错误在tty说encryption设备无法启动…所以我们假设这不是答案。 帮助赞赏(高兴发布任何configuration或日志的要求…只是不知道什么会有所帮助)!

使用连接的客户端closuresiSCSI目标的正确方法是什么?

具有两个DRBD主节点的iSCSI如果两条path并发写入请求,则使用不太合适 。 但我正在考虑将此想法用作ESXi 5.5U2主机的后端存储。 我已经用主/辅助configuration和经典故障转移群集进行了testing。 ESXi在这一点上所做的是检测到一个多path,并且主动使用一条path。 所以在这个星座中,似乎并没有出现并发写IO问题。 现在,在这两种情况下(主要/次要或主要/主要)的问题是:如何closures具有到iSCSI客户端的活动打开连接的iSCSI服务器(iSCSI目标提供程序,采用iSCSI方式)? 我目前在目标服务器上使用CentOS 5。 CO5使用tgtd来提供目标。 令我惊讶的是,正常停止方法失败,如果有连接的客户端。 相反,在这种情况下,强制停止似乎是我需要的。 我想干净地closures一台服务器(我必须停止访问目标,所以我可以切换drbd到次要),然后另一台服务器应该自动变为活动(在这个星座恕我直言,没有什么要做的)。 在这方面的问题:以下是好的,还是我错过了什么? 强行停止tgtd(将首先脱机的目标) 将IP拆分为启动器的方向(与用于drbd复制的行不同) closuresdrbd(使其成为第二) 重启或关机服务器

堆叠站点上的DRBD磁盘drbd10上的I / O很高

我们有4个Redhat盒Dell PowerEdge R630(比如a,b,c,d),它们具有以下操作系统/软件包。 RedHat EL 6.5 MySql Enterprise 5.6 DRBD 8.4 Corosync 1.4.7 我们已经设置了4路堆叠的drbd资源,如下所示: 群集群集-1:服务器a和b互相连接本地局域网群集群集-2:服务器c和d 群集群集1和群集2通过虚拟IP通过堆叠的drbd连接,是不同数据中心的一部分。 drbd0磁盘已在每个服务器1GB本地创build,并且还连接到drbd10。 整体设置由4层组成:Tomcat前端应用程序 – > rabbitmq – > memcache – > mysql / drbd 我们正在经历很高的磁盘IO,甚至到现在还没有活动。 但交通/活动会在几个星期内增加,所以我们担心会对业绩造成非常不好的影响。 I / O Useage仅在堆叠的站点(有时为90%及以上)上走高。 二级站点没有这个问题。当应用程序是理想的时候使用率会很高。 所以,请分享一些build议/调整指导方针,以帮助我们解决问题。 resource clusterdb { protocol C; handlers { pri-on-incon-degr "/usr/lib/drbd/notify-pri-on-incon-degr.sh; /usr/lib/drbd/notifyemergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f"; pri-lost-after-sb […]