Articles of drbd

Debian 7:带起搏器,drbd和iSCSI的HA NAS

我目前正在试图在debian 7下创build一个高度可用的NAS。我正在使用以下软件包: drbd8-utils的 iscsitarget iscsitarget-DKMS 起搏器 corosync OpenAIS的 一切工作正常,没有pacemaker (所以我会把它不是一个conf错误) 当我把所有东西放在心脏起搏器上时,一切正常,直到我重新启动其中一个节点。 这里是我的起搏器configuration: node NAS-1 node NAS-2 primitive nas_ip ocf:heartbeat:IPaddr2 \ params ip="192.168.152.210" cidr_netmask="255.255.255.0" primitive p_drbd ocf:linbit:drbd \ params drbd_resource="nas" \ op monitor interval="29" role="Master" \ op monitor interval="31" role="Slave" primitive p_iscsitarget ocf:heartbeat:iSCSITarget \ params iqn="iqn.2015.01.net.utopia:nas" tid="1" \ op monitor interval="10s" group g_iscsi nas_ip p_iscsitarget ms […]

DRBD设备在不同的内核版本上暂时消失?

从旧内核升级到新内核版本并引导到新内核之后,DRBD逻辑设备不见了。 /proc/drbd.下什么也不/proc/drbd. 这是一个主要的问题,因为我在群集中运行DRBD,在主节点和次节点之间运行心跳。 然而,在重新引导到新内核之后,DRBD设备已经重新出现。 有没有人经历过这种波动的行为? 谢谢。

从群集文件服务器DRBD&GFS2运行服务器

我们正试图消除没有SAN的文件的单点故障。 我们目前有一个文件服务(本地)服务器,networking服务器和数据库(在虚拟机)。 查看使用DRBD和GFS2创build群集文件系统,然后从文件系统(包括主机操作系统,虚拟机和共享文件)尽可能多地运行。 我们希望在从共享源运行的主/从设置中设置两台服务器 ; 但是服务器的硬件configuration(驱动器端口分配,实际品牌和主板型号,NIC等)略有不同,因此硬件configuration文件将保持在本地(例如fstab和mdadm)。 理想情况下, 一台服务器将作为主要服务器 。 只有在集群文件系统上,主服务器才会进行程序包pipe理,因为如果从服务器使用相同的数据(来自同一个块设备的数据),则该服务器不需要。 主服务器也是两台服务器的单一pipe理点,仅仅是因为它们共享数据和configuration文件,而第二台服务器只是作为冗余硬件集来运行在服务器1上configuration的软件, STONITH,Hearbeat,起搏器等 但据我所知,似乎大多数人彼此独立pipe理服务器,并试图自动使用cron作业和rsync。 也似乎大部分的文件是相当静态和用户修改; 即由操作系统(日志,交换文件等)独立于用户input和/或依赖硬件而被主动修改的文件/文件夹的数量非常小。 我们希望保留本地操作系统提供的文件(不在虚拟机中)。 所以现在的问题。 软件pipe理可以与硬件pipe理分离吗? 似乎唯一需要独立pipe理的是每台机器上的硬件; 应该通过集群文件系统一次性pipe理软件。 (可能是错的,所以这个问题) 主机操作系统是否可以通过两台机器中的任何一台从一组共享的文件中运行? 也就是说,两台机器是否都可以准备好pipe理主机操作系统,但是只有主机才能执行,直到故障转移,从机才能执行pipe理工作? 还是这个假设不准确? 我们可以将机器设置为从机/空闲状态,直到主机出现故障? (暂停cron作业,暂停服务等)我假设这将是一个击剑软件的问题? (这不是一个如何从同一组数据同时运行两台机器的问题,它们将在不同的时间从同一组数据有效地运行,服务器每个需要不断修改的文件将在本地文件系统) 我们只是想设置一个冗余服务器,并尽量减less冗余pipe理。

为esxi主机CentOS来宾configurationSTONITH

我只是对STONITH做了一些初步的研究,发现它可能需要硬件来重置失败的节点。 可以使用称为IPMI的东西。 我想知道如何这样的因素到一个虚拟的环境? 有没有人在esxi 6 VM环境中实现STONITH的经验? 当前环境variables: Esxi 6 CentOS 7 起搏器+ Coroysync + DRBDconfiguration 想要configurationSTONITH,并想知道是否有人可以帮助我理解如何在虚拟环境中做到这一点。

预测裂脑情况后的初选数量

我正在尝试使用http://www.drbd.org/users-guide/s-configure-split-brain-behavior.html中解释的自动拆分脑部恢复策略来避免分裂大脑的情况 如何预测我们参与的条件? 如何预测裂脑之后的初选数量? 这全是偶然吗?

如何configurationPacemaker在从站上安装DRBD数据目录?

你如何获得一个DRBD对的从节点来挂载数据目录,这样数据就可以同步了? 我通过以下指南: https : //wiki.edubuntu.org/ClusterStack/Natty#Prepare_Partitions获得双节点群集设置。 我有连接的节点,但是辅助节点上的数据目录从不装载,因此节点1的数据永远不会复制到节点2。 起搏器“应该”使用以下命令将驱动器安装在节点2上: primitive res_fs ocf:heartbeat:Filesystem params device="/dev/drbd0" directory="/mnt/eoacluster" fstype="ext4" # Mounts the filesystem specifying the DRBD device and mount point. 以下是drdb-overview的输出: 节点1: 0:eoa-ib Connected Primary/Secondary UpToDate/UpToDate C r—- /mnt/eoacluster ext4 99G 188M 94G 1% 节点2: 0:eoa-ib Connected Secondary/Primary UpToDate/UpToDate C r—- 以下是df -h 节点1: Filesystem Size Used Avail Use% Mounted […]

没有DRBD的NFS故障转移?

所以我试图在云环境中build立一个冗余的NFS共享(所有链接都是内部的,一半的gig链接),我正在考虑使用心跳进行故障转移,但是所有的指南似乎都是关于DRBD和心跳的结合来创build强大的环境。 如果需要的话,我可以做到这一点,但由于我的内容几乎是完全静态的,我想尽可能避免DRBD的额外开销和复杂性,但是如果其中一个NFS服务器出现故障,仍然可以进行故障转移。 是否有可能使用心跳与NFS来实现高可用性,而不使用DRBD来复制块? 我没有嫁给NFSv4,所以如果需要通过UDP传输NFSv3,这不会是一个问题(只有极less数的客户端将连接到共享) 任何意见表示赞赏。

Rsync通过互联网

我正在寻找一种方法来将文件从生产服务器通过互联网复制到DRP服务器。 这两台服务器处于不同的状态。 目前,没有太多的数据可以传输,但是我怀疑它可能会上升。 我读了很多关于Rsync和DRBD的知识 。 我的问题是: 哪一个更适合这个目标? 有没有更好的(免费软件)工具来做到这一点? 在互联网上有什么特别的问题吗? 谢谢!

将iSCSI目标镜像到较慢的驱动器,asynchronousRAID或块级复制?

我打算在NAS上设置testingiSCSI导出,KVM虚拟化主机将使用它来存储所有客户卷和数据。 我的NAS盒子是一个自build的CentOS。 将由iSCSI从NAS导出的设备将成为SSD。 但我想尝试find一种方法将这个卷复制到NAS上较慢/较便宜的旧磁盘上。 我可以在SSD和较慢的备份驱动器之间使用RAID 1,但是我的理解是arrays的总速度将会由于较慢的驱动器而降低。 有什么方法可以将SSD的某些块级别的完整/增量复制执行到较慢的硬盘上? 某种asynchronousRAID 1或复制会很好,所以只要较慢的驱动器可用,更改的块就会排队并写入较慢的驱动器。 在这种情况下,SSD上的数据不会发生太大的变化,并且在24小时内总是会有一些点能够赶上较慢的速度。 我想避免在每个guest虚拟机中configuration备份。 将所有这一切都在存储箱中的块级别上进行,将是一个优雅的解决scheme,并允许我只更改iSCSI设置,以便在SSD出现故障的情况下导出备份卷。 我已经看过LVM快照,但感觉就像是需要在KVM虚拟主机上configuration的东西,我需要以某种方式将快照存储在不同的设备上。 任何人都知道可以做到这一点,这是在我的小testing环境(即:开源)的预算内? 我猜这个types的大多数解决scheme都是高成本的SAN供应商的保留。 编辑:好的只是在看DRBD。 asynchronous镜像似乎是理想的,但在同一台机器上的存储设备之间是可能的吗? 编辑2:这是一个家庭实验室testing,而不是生产推出。 我基本上想要使用iSCSI / NFS尝试远程虚拟机存储。 如果有机会在这里添加某种设备复制技术,那么我也可以放弃。 我不打算购买额外的SSD和RAID 1,因为这对我的实验是毫无意义的…我广泛使用了RAID 1,我的结论是,它的工作原理。 完美。 我正在寻找是否有另一个我不知道的技术,我可以摆弄和学习。

高可用性/故障切换硬件连接

我正在学习有关集群和高可用性技术的知识,并且偶然发现了一篇关于使用一对服务器configurationnetworking的文章,使用DRBD进行复制和心跳以进行监视和故障切换。 文章指出,每台服务器上应该有2个网卡:eth0连接到LAN,两个eth1应通过交叉网线相互连接,如下图所示: 图片描述: 为了确保自动故障切换,心跳监视主服务器,如下所示:1.辅助服务器通过连接两台服务器的交叉电缆连续监视与主服务器的连接。 如果主服务器不可访问,则次服务器将采用主服务器的状态。 2.主服务器持续监视与高可用性networking设备(如路由器)的连接。 如果networking设备不可访问,则将控制权交给辅助服务器。 如果发生以下情况,故障切换会自动进行:1.主站的networking故障切换2.硬件故障,如电源,CPU,RAM等 这提出了以下问题: 如果次要/被动服务器上的心跳监视通过eth1监视主节点,如果eth1在任何服务器上出现故障,会发生什么情况? 在我看来,心跳会认为小学已经死了,并会激活中学。 这不会造成“裂脑”的状况吗? 由于主服务器仍然通过eth0连接到局域网并工作,所以它只是心跳/复制链路(eth1)被破坏了。 那么现在我们同时有两台活动的服务器? 我仍然在理解这个概念,请原谅我说废话。