Articles of drbd

drbd无法启动无法加载drbd模块

我试图学习与虚拟框centoOS 6.3 drbd,我有两个虚拟机configed,节点1是原来的,节点2克隆从节点1,但我不能启动'服务drbd开始'有一个错误消息“启动DRBD资源:无法加载drbd模块”,而节点2可以启动命令,这里是configuration [root @ localhost db]#cat /etc/drbd.conf # You can find an example in /usr/share/doc/drbd…/drbd.conf.example #include "drbd.d/global_common.conf"; #include "drbd.d/*.res"; global { # do not participate in online usage survey usage-count no; } resource data { # write IO is reported as completed if it has reached both local # and remote disk protocol C; […]

DRBD – 为什么在辅助资源上只读会导致caching一致性问题

根据DRBD9文档( https://www.drbd.org/en/doc/users-guide-90/s-resource-roles ),读取设备会导致caching一致性问题,但我不知道为什么。 ( 我知道我不能访问次要angular色的资源,但我想了解原因 ) 我的假设是(假设我们有DRBD-1 primary和DRBD-2 secondary,文件系统ext4,“file_a”是drbd设备上的一个文件): DRBD-2访问file_a并将file_a偏移量(或类似的东西)放在他的caching中。 (DRBD-2具有只读权限,所以系统认为该文件不能被修改)。 DRBD-1在旧的file_a偏移处写入file_b内容。 DRBD-2想要再次访问file_a,因此系统使用存储在caching中的偏移量,期望在访问file_b数据时findfile_a数据。 我们有caching一致性问题。 在此先感谢您了解了这一点。

如何查询DRBD设备大小?

要编写Ansible脚本来设置DRBD设备和文件系统,我遇到以下问题: # blockdev –report /dev/drbd0 RO RA SSZ BSZ StartSec Size Device blockdev: cannot open /dev/drbd0: Wrong medium type 我本来希望DRBD设备像任何md设备一样实现块设备操作。 我使用软件包运行Debian Linux Jessie / stable drbd-utils 8.9.2~rc1-2+deb8 amd64 RAID 1 over TCP/IP for Linux (user utilities) 有没有办法获得可用的设备大小?

DRBD与起搏器失败

我是Pacemaker和DRBD的新手,但我必须将它们configuration在一起。 我创build了2个drbd资源:Drbdwww和DrbdMysql但是,当我使用drbd_mon我有以下错误: Stack: corosync Current DC: s-ha-web1 (version 1.1.15-e174ec8) – partition with quorum Last updated: Mon May 8 21:58:45 2017 Last change: Mon May 8 21:58:36 2017 by hacluster via crmd on s-ha-web1 2 nodes and 7 resources configured Online: [ s-ha-web1 s-ha-web2 ] Resource Group: haweb vip (ocf::heartbeat:IPaddr2): Started s-ha-web1 httpd (ocf::heartbeat:apache): Started s-ha-web1 […]

带有IPv4后备的drbd

我是通过IPv6设置DRBD,我想问一下是否有可能在地址部分同时提供IPv4和IPv6地址。 on server1 { disk /dev/sdb1; address 140.XXX:7788; address ipv6 [2001:7C0:1300:5908::98:111]:7788 } on server2 { disk /dev/sdb1; address 140.XXX:7788; address ipv6 [2001:7C0:1300:5908::98:110]:7788 } 如果不可能,当IPv6不可用时,有没有办法回退到IPv4? 谢谢。

DRBD 8.3replace出现故障的磁盘

我需要replace一个DRBD后端磁盘由于磨损,但不确定如何继续。 安装如下: server0 <—-> server1 Server0是受影响的一个,DRBD进程已经停止。 Server1目前是主服务器,它的DRBD状态如下所示: cat /proc/drbd version: 8.3.11 (api:88/proto:86-96) srcversion: F937DCB2E5D83C6CCE4A6C9 0: cs:WFConnection ro:Primary/Unknown ds:UpToDate/Outdated C r—– ns:4 nr:12 dw:16 dr:937 al:0 bm:2 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0 1: cs:WFConnection ro:Primary/Unknown ds:UpToDate/Inconsistent C r—– ns:10167368 nr:1357185492 dw:2024894776 dr:67769600 al:326677858 bm:1111517 lo:2 pe:0 ua:0 ap:1 ep:1 wo:f oos:305611780 已耗尽的磁盘已在server0上更换,DRBDconfiguration为使用内部元数据服务器。 server0上的DRDBconfiguration: resource […]

正确使用Pacemaker的OCFtesting仪和OCF资源代理

我已经安装了DRBD,Corosync和Pacemaker,其中Pacemaker应该在不同群集节点上的DRBD块设备上安装文件系统,具体取决于节点的可用性。 该设置还没有完全正常工作,因此我尝试使用ocf-testertestingPacemaker的DRBD资源代理ocf::linbit:drbd 。 如果我这样尝试( drbd_res是Pacemaker中DRBD资源的名称; r1是/etc/drbd.conf资源的名称) sudo ocf-tester -n drbd_res -o drbd_resource="r1"\ /usr/lib/ocf/resource.d/linbit/drbd monitor 我得到这个错误消息: Beginning tests for /usr/lib/ocf/resource.d/linbit/drbd… /usr/sbin/ocf-tester: 226: /usr/sbin/ocf-tester: xmllint: not found * rc=127: Your agent produces meta-data which does not conform to ra-api-1.dtd * rc=6: Validation failed. Did you supply enough options with -o ? WARNING: You may be disappointed: This […]

Proxmox drbdconfiguration分裂大脑

我正计划使用两台戴尔R710机器(每个双核6个处理器)configuration企业级驱动器RAIDarrays的proxmox HAconfiguration。 我将在第三台机器上使用DRBD和仲裁磁盘。 我将在每台服务器上分配两个1GB的nics到DRBD通信。 我们将在这对服务器上运行大约12到14台虚拟机。 proxmox手册build议创build两个DRBD资源 – 一个用于通常在ServerA上运行的虚拟机,另一个用于通常在ServerB上运行的虚拟机。 这是因为此configuration运行的主/主状态。 如果两台服务器的虚拟机都使用相同的DRBD资源进行通话,并发生分裂的情况,则可能会造成数据损坏,必须予以解决。 虽然我知道创build新的虚拟机需要花费更多的精力,但任何人都可以预见到为每个虚拟机运行单独的DRBD资源的潜在问题吗? 有没有人有这样的经验运行的设置,并运行良好? 在我看来,在来回移动机器时会有更大的灵活性。

DRBD手动故障转移

查看使用DRBD或集群文件系统来帮助在小型企业环境中发生停机时间的情况下正常运行。 我们目前使用Linux和samba为文件服务器使用服务器盒,然后在VM中运行Web服务器和数据库。 正在考虑添加第二台服务器并将文件和虚拟机放到分布式文件系统上。 基本操作系统更加静态,可以更容易地进行手动pipe理(在更改时复制configuration文件,如果需要从完整备份复制基本操作系统等) 问题是关于手动完成的故障转移场景。 如果服务器1出现故障并手动进行故障切换,则只需将服务器2的静态IP设置为服务器1(服务器1再次closures并处于需要维修状态),启动Samba并启动这个虚拟机的静态IP与在服务器1上运行时具有相同的静态IP,并启动备份服务? 这听起来像一个简单而快速的过程。 我错过了什么吗? 这可以很容易地通过脚本自动化,也可以在故障情况下指导那些不熟练的人员运行。 如果我们有一个硬件故障,如果我们有一个硬件故障的时间可能很容易是没有呼叫IT支持和没有第二个服务器所需的部分的支持,但与第二个服务器,停机时间将是在几小时内(如果没有一个是办公室精通足够执行这样的操作,如果有人是分钟)

RHEL7.4和DRBD 9.0 / 8.4安装

我有一个新的RHEL7.4服务器安装,我试图从elrepo安装DRBD 9.0。 我的服务器运行最新的内核: 3.10.0-693.1.1.el7.x86_64 ,但kmod-drbd90想要安装内核3.10.0-514.26.2作为依赖: —> Package kmod-drbd90.x86_64 0:9.0.8-1.el7.elrepo will be installed –> Processing Dependency: kernel(crypto_alloc_ahash) = 0x035deac4 for package: kmod-drbd90-9.0.8-1.el7.elrepo.x86_64 –> Running transaction check —> Package kernel.x86_64 0:3.10.0-514.26.2.el7 will be installed 我没有安装旧的内核的问题。 我只是想知道当旧的内核最终被replace时会发生什么。 DRBD会继续工作吗? 如果我尝试安装DRBD 8.4,我也会得到同样的结果。