Articles of drbd

DRBD为什么不重新启动?

我们运行10台服务器,大部分是廉价的申请桌面机器,全部运行CentOS 5.1和Xen。 所有这10台服务器都运行Xen虚拟机。 有人关掉服务器柜的电源,有几台机器炸硬盘,不能再启动。 不用担心,所有的虚拟机磁盘映像在不同的服务器上都有DRBD镜像副本,我只需要在启动这两台服务器时启动这些镜像副本。 我已经replace了每个引导驱动器,并重新安装了CentOS,Xen和DRBD。 但是,在重新启动后,服务器都可以看到他们的本地DRBD设备,但是报告远程链接的状态为“WFConnection”,等待连接。 每个设备报告为“次要/未知”。 我查过了: 每台服务器都configuration了正确的iptables让DRBDstream量通过 – 这是明确的,iptablesconfiguration文件来自中央存储库,并且与机器崩溃前相同。 这不是一个DNS问题,因为每个服务器都有一个固定的IP地址,DRBD.conf直接使用这些IP地址,所以DNS甚至不被使用。 我已经确定新安装使用与原始服务器相同的固定IP地址和主机名。 每台服务器都可以ping通所有使用的IP地址上的另一台,在那里没有问题。 服务器都连接到同一个交换机。 有谁知道为什么DRBD仍然拒绝连接?

VMware guest虚拟机中的DRBD

我在互联网上看到很多关于DRBD和VMware各种组合的post,但是我还没有find直接的答案: 我可以在VMware客户中使用DRBD吗? 我对表演不感兴趣; 我有兴趣使用虚拟化来简化产品的testing,因此我更关心它是否与物理硬件相同,而不是速度如何。 我正在运行红帽企业Linux服务器版本5.1,如果这有所作为。

是否有可能使用networkingRAID 1方式的复制存储?

我想知道是否有任何方法可以使用开源工具来复制HP StorageWorks P4000 Virtual SAN设备的function? HP VSA基本上可以让您以与DRBD相同的方式进行复制,但它可以让您以RAID 1方式使用这两个块设备,以便从本地存储和其他服务器上的复制存储中读取数据。 当我testing过DRBD时,我已经在主动/被动中使用过它,所以如果我在两台服务器上都有RAID10和DRBD,那么一台服务器会完成所有的工作,而另一台服务器只是接收复制数据块故障转移。 我想同时使用这两种testing进行testing,所以如果我在一台服务器上有30个XEN客户端,负载将分布在两台或多台物理服务器上的存储上。 希望这是有道理的。 任何指针将不胜感激。 谢谢弗洛

mysql和DRBD在rackspace上

我试图设置一个故障转移辅助MySQL服务器,它是使用DRBD的主要MySQL服务器的镜像。 问题是我在一个机架空间云服务器上,我需要在主服务器和辅助服务器上使用DRBD复制的第二个分区。 Rackspace不允许我创build第二个分区。 我留下了默认的单个分区。 我如何使用DRBD镜像?

DRBD双重主要再访

这是一个旧的数据,在双主模式下使用非集群感知的文件系统(如Linux上的带有DRBD的ext4)是不可能的。 例如,如Linbit在他们的手册“Dual Primary – Think twice”中所述: DRBD将从节点A到节点B的更改复制到另一个方向。 它改变了物理存储设备的内容。 但是 – 正如DRBD所在 在所提到的Ext4文件系统下,物理磁盘上的文件系统 节点A不会注意到来自节点B的更改(反之亦然)。 这个过程被称为并发写入。 从现在开始,实际的内容 的存储设备不同于它认为应该是的文件系统。 文件系统已损坏。“ 我的问题是 – 这是为什么? 因为,如果该文件系统的元数据存储在相同的DRBD设备上,则上述任何变化都将在两个DRBD节点之间同步,因此两端的文件系统(包括数据+元数据,不是吗?)完全同步。 确实,节点1写的节点1被节点2覆盖了,但是如果我在节点1上发出“dir”命令,我会看到还有另一个文件,而不是刚刚复制的节点1。 简单的共享文件夹(如Windows CIFS共享)也会发生同样的情况。 这不会导致文件系统损坏。 那么问题在哪里? 为什么大家都说文件系统会损坏? 这是否意味着ext4文件系统不会将元数据存储在实际设备本身上,而是将其存储在其他位置,例如在根文件系统中? 根据我所能读到的ext4 FS的内部情况,情况并非如此。 (我不得不说,我没有深入ext4的细节)。 但它应该或多或less是这样的: Node1将新文件写入到块34098(并更新目录条目): 节点1 – 目录条目:/data/myfile1.txt 34098 —–> 34098块包含:myfile1.txt 在“同一时间”,Node2写入以下内容到块34098.它不能在“同一时间”,所以我们假设它是当DRBD刚刚完成同步以上。 节点2 – 目录条目:/data/other.txt 34098 —–> 34098块包含:other.txt DRBD现在应该再次将块34098同步回到节点1,目录条目和块34098。 除了将文件“other.txt”写入块34098之外,node2上的文件系统还将更新包含指向块34098的目录项(这只是另一个文件)的块。所以它应该始终同步,否则?

在CentOS 7.3上,DRBD 8.4无法运行drbdadm

节点: 节点1 节点2 在这两个节点上使用这种方式安装DRBD: rpm -ivh http://www.elrepo.org/elrepo-release-7.0-2.el7.elrepo.noarch.rpm rpm –import /etc/pki/rpm-gpg/RPM-GPG-KEY-elrepo.org yum -y install drbd84-utils kmod-drbd84 添加新的硬盘,并在两个节点上执行分区: fdisk /dev/sdb 然后格式化分区: mkfs.ext4 /dev/sdb (在node2上失败,所以删除它,并添加一个新的磁盘成为/dev/sdc 。格式化它。) 按照官方指南configuration两个节点上的基本资源: http://docs.linbit.com/docs/users-guide-8.4/p-build-install-configure/#ch-configure 在两个节点上创build/etc/drbd.d/r0.res : resource r0 { protocol C; on node1 { device /dev/drbd0; disk /dev/sdb; address 192.168.0.1:7789; meta-disk internal; } on node2 { device /dev/drbd0; disk /dev/sdc; address 192.168.0.2:7789; meta-disk internal; […]

更改位于不同位置的文件

Iam对linux很新颖。 假设我有两个同名的文件fstab一个文件位于/ etc,另一个位于/ root /如果我在/ etc / fstab文件中进行更改,更改必须反映在/ root / fstab中。 有没有这样的命令? 请帮我… 迈利

用6TB raid进行初始同步drbd需要多长时间

我创build了一个双节点drbd驱动器,并创build了分布式文件系统drbd的初始同步,这需要花费数天时间。 这是一个raid5,每个3个磁盘3TB,创build一个6TB raid,由另一台计算机上的drbd复制镜像。 问题是,初始同步需要五天的时间。 网卡为1GB,“Syncer”中的参数“rate”为drbd.confconfiguration文件为100MB。 这么长时间是正常的。

哪种技术允许使用首选本地读写的共享存储?

我有两台或三台类似于HP ProLiant DL380 G6 / 7的稍旧的服务器,只有x * 1 GBit以太网,但CPU功率,内存相当大,并且具有相当数量的本地存储。 我感兴趣的是build立一个两个甚至三个节点的小型集群设置,其中所有这些提供服务,就像我目前对“超融合”stream行词的理解。 这些服务尤其是托pipe虚拟机,这些虚拟机本身为不同的networking应用程序,一些守护进程,数据库等提供了Web服务器。在应用程序级别上有很多不同的东西,有些是I / 目前这些服务器正在使用Synology的一些入门/中档NAS,而且现在的情况已经不再那么好了。 我有一些问题,除了一些基准testing还不是很好以外,让NAS在繁重的I / O负载和日常性能方面工作可靠。 因此,我正在研究不同的选项,如集群文件系统,DRBD,即可安装的解决scheme(如Proxmox等)。 我现在问自己的主要问题是,如果通过构build更喜欢本地读写的“某些东西”,某种方式可能使networking成为某种可能的瓶颈。 例如,DRBD提供了复制协议A ,这正是我所想到的。 可能的数据丢失的时间跨度可能是某人认为是每个服务器等冗余硬件的可接受风险。 另外,在某些特定时间,可能不需要在所有节点上托pipe应用程序,但在节点更新和重新启动等情况下,仅在节点上移动应用程序是可以接受的。手动,经过一些准备步骤或其他。 重要的一点是,如果节点大部分时间都会托pipe自己的应用程序,那么之后可能会受益于大量本地读取和写入操作的asynchronous通信。 这正是DRBD文档所说的 : 无论如何,完全可以在双主模式下使用DRBD作为GFS的复制存储设备。 由于DRBD通常从本地存储读取和向本地存储写入这一事实,应用程序可能会因为读取/写入延迟减less而受益,与GFS通常configuration为运行的SAN设备相反。 在块级有没有DRBD的可比技术? 也许有些集群文件系统已经提供了这些东西? 另外,如果提供的任何东西只是简单地与当前的Ubuntu发行版一起使用,那将是有益的,因为这是当前服务器的我select的操作系统。

build议IMAP故障转移到辅助服务器

我最近被赋予了configuration基于IMAP的电子邮件服务器解决scheme的任务,该解决scheme将故障转移合并到备份服务器。 我有这方面的经验,但都是单服务器的东西。 我一直在做很多关于故障转移方面的研究,但是当涉及到这些事情时,我想从中获得比我更多的经验。 这些要求适用于两个不同地理位置的服务器,故障转移configuration为主动/被动configuration。 不幸的是,在我介入之前,解决scheme的某些部分已经被指定和订购。 有两台服务器,通过相关ISPnetworking中的低延迟,高带宽链路连接。 没有共享存储/ SAN可用,只有两台机器。 ISP的任务是提供一个监视活动机器的系统,并根据需要将虚拟IP地址重新映射到备份机器。 另外一个要求是,如果故障切换到备份机器,则必须保留所有邮箱数据。 这似乎排除了一个简单的解决scheme,如定期rsync到备份机器(请纠正我,如果我错了!)。 在做了一些研究之后,我想出了一些可能的select。 我还没有看到每一个足以真正决定他们是否都是可行的select,但在这里他们是: 邮箱数据的DRBD实时块级复制 某些configuration了数据库复制的数据库支持的邮箱存储 使用IMAP服务器软件的内置复制function DRDB开始变得越来越复杂,考虑到我的时间限制,可能是不可能的。 我还应该提到它需要成为一个基于Linux的解决scheme。 几乎可以肯定Centos / RHEL。 至于要使用哪个IMAP软件包,我愿意使用符合我的要求的任何软件。 目前我正在看几个,包括达夫科特,赛勒斯和其他几个人。 我真的在寻找人们对上述选项的意见,以及其他我可能没有考虑过的build议。 我意识到你可能很难给出明确的答案而不完全理解所涉及的所有因素,但任何input都非常感激。 我很高兴回答有关细节的任何问题,如果这将有助于定制您的答案。 非常感谢