我将使用QEMU + KVM创build一个简单的虚拟主机基础架构。 预计会非常简单,没有云彩或任何其他酷的东西。 目前唯一的要求是数据容错(主机的磁盘镜像联机备份)。 实时迁移受欢迎,但不是强制性的。 你build议什么方式? 现在我正在考虑DRBD。
我真的很新鲜。 我一直在努力如何保持多个networking服务器同步。 似乎DRBD8和OCFS2是要走的路。 但是,到目前为止,我看到的每个示例都一直在引用双主节点和两个节点。 我没有看到任何迹象表明这是要说5-10个networking服务器的方式。 所以问题主要是,DRBD8可以用来同步5-10个Web服务器吗?如果我们频繁地添加/删除Web服务器,它会在一个环境中变好吗?
我们有一个连接到共享SAN存储的多个ubuntu机器的集群。 最初我们使用OCFS2作为文件系统,但是我们遇到了很多问题,我们找不到合适的文档或支持,因此我们决定迁移到另一个集群系统。 因此,考虑到我们需要保持所有节点处于活动状态,并且我们希望从集群感知文件系统移开,那么您是否可以提出最佳的系统? 我们已经看了DRBD,但它似乎只用于主动 – 被动设置。
当我启动我的Centos 6.3服务器的drbd服务时,出现以下错误: Starting DRBD resources: DRBD module version: 8.3.13 userland version: 8.4.2 preferably kernel and userland versions should match. 我99%确定这是与我刚刚安装/使用的openVZ内核有关的,因为如果我从grub启动菜单返回到另一个2,就不会发生错误。 为了使OpenVZ和DRBD能够在同一台服务器上一起工作,我需要做些什么? 出于诊断目的, uname -a的结果是这样的: Linux main2 2.6.32-042stab072.10 #1 SMP Wed Jan 16 18:54:05 MSK 2013 x86_64 x86_64 x86_64 GNU/Linux 如果在安装DRBD时运行命令: yum –enablerepo=elrepo install drbd83-utils kmod-drbd83 代替 yum –enablerepo=elrepo install drbd84-utils kmod-drbd84 然后错误变成: Starting DRBD resources: […]
我们一直在试图让起搏器与DRBD一起工作,并尝试了各种替代方法,无法让我们的“drbd1”挂载并获得一些错误。 注意:我们试图让起搏器与现有的encryptionRAID1 LVM设置一起工作 – 这是不可能的还是一个“简单的坏主意”? 我们认为我们会喜欢每个盒子上本地RAID的潜在优势,以及DRBD / pacemaker提供的互联网RAID和故障转移。 我们正在使用Debian Squeeze。 根据不同的说明,我们已经禁用DRBD启动初始化( update-rc.d -f drbd remove ),并将LVM过滤filter = [ "a|drbd.*|", "r|.*|" ]设置为filter = [ "a|drbd.*|", "r|.*|" ] filter = [ "a|drbd.*|", "r|.*|" ] 。 仅供参考 – 我们已经在我们的fstab中注释了LVM安装“/ dev / vg2 / vserverLV”,并且似乎一直需要这样做以避免启动错误。 我们认为DRBD的工作原理是直到我们join了心脏起搏器的步骤(例如,“dev / drbd1”在引导时加载;我们可以将相关的数据从server1移动到server2,尽pipe需要使用命令行来完成)。 我们已经看到了networking上的各种表述,表明在drbd.conf中使用“映射器”选项是可行的。 另外,如果我们将Pacemakerconfiguration为简单的IP故障转移,那么可以工作(即没有错误,我们可以通过故障转移地址ping),但是当我们添加DRBD主体和相关语句时停止工作。 我们的怀疑(也许“你不能用现有的RAID做这个”)是我们在我们的drbd.conf中使用了错误的“磁盘”声明,虽然我们已经尝试了很多替代方法,这也是一样的drbd在添加Pacemaker之前,我们使用.conf,似乎在这一点上工作。 最后,尽pipe各种configuration语句引用了“vserver”,但是我们还没有尝试向DRBD设备添加任何数据,除了一些自从做“crm”工作以来已经消失的文本文件以外。 任何帮助感激! CONFIGS /日志 A)drbd.conf global { usage-count […]
我们打算使用drbd来同步两个服务器(不同的硬件),以便在主服务器死亡的情况下获得一种HA。 这些服务器实际上托pipe在同一个数据中心(德国Hetzner),并且正在运行openSUSE。 服务器的主要目的是托pipe按需印刷的东西,并呈现或生成pdf。 我们希望同步“/ var / www”文件夹以及此刻存储在默认文件夹中的数据库。 我的计划是将这些文件夹移到drbd同步分区,并通过“ln”将它们链接回原来的位置。 还是相反呢? 或通过复制同步数据库? 主要的问题是,我们在每台服务器上只有100mbit的上行链路,我不知道是否足以在drbd-mode C中同步服务器。 也许你们中的一些人有任何build议或经验,你想与我分享。 PS:我还没有服务器,我只是刨了一切,如果一切正常。 编辑:我现在正在运行drbd同步过程,将/ dev / drbd0同步到主节点上的/ srv / drbd。 我已经将(ln)包含我的网站的文件夹/ srv / drbd / vhosts链接回/ srv / www /,但在我的浏览器中始终得到错误404错误。 这只是一个chown问题? 目前我正在尝试通过crm来configurationcorosync / pacemaker,但是我无法获得所有的基元运行。 这是我的configuration,也许你可以找出为什么它不会启动。 ============ Last updated: Mon Aug 5 16:37:54 2013 Last change: Mon Aug 5 16:37:32 2013 by root via cibadmin […]
主节点已经在VirtualBox(guest RHEL 6 + DRBD)中构build。 为了获得具有相同configuration的第二个节点,VirtualBox克隆操作似乎是理想的 容易 声明第二个节点DRBD辅助: drbdadm secondary resource 不需要同步DRBD数据(乍一看) 然而,我想知道:是足够的设置,或DRBD创build每个主机的唯一数据,最好在第二个节点上做另一个drbdadm create-md (然后同步)? ( 编辑:虚拟平台设置来执行testing )
我想考虑一下目前我们的主动 – 被动群集(DRBD,Pacemaker,Corosync,PostgreSQL)发生的情况, 操作系统:Ubuntu服务器14.04 x64 DRBD:8.4起搏器:1.1.10 Corosync:2.3.3 PostgreSQL:9.3 这是一个问题:当小学生倒下时,中学被选为主要的。 问题出现在重新介绍以前的小学的时候,它直接进入了一个裂脑的情况,而应该成为一个二级代替。 以下是详细的事件顺序和相应的日志: A:小学,B:中学 1 – A下降 2 – B成为主要 3- A重新开始 – > SPLIT BRAIN(我们推测在这种情况下,故障转移可以自动完成) 来自A的LOGS: Jan 28 16:15:11 node1 kernel: [ 538.025422] block drbd0: helper command: /sbin/drbdadm initial-split-brain minor-0 Jan 28 16:15:11 node1 kernel: [ 538.026185] block drbd0: helper command: /sbin/drbdadm initial-split-brain minor-0 exit code […]
有一个由两台服务器组成的集群是安全的吗? 一个运行DRBD 8.0 一个运行DRBD 8.3或8.4 目前只有一个具有8.0数据的DRBD服务器。 将在DRBD 8上添加新的服务器吗?[34] 作为二级立即认识到其对应的主要现有数据格式(8.0),并保持同步使用8.0格式? 如果没有,DRBD 8.0可以安装在RHEL 6上并安全使用,只要8.0 DRBD软件包仅在el5上可用? (在这种情况下,目标是在两台服务器上运行8.0,直到第一台服务器升级到8. [34]完成,然后升级第二台服务器)
drdb驱动器上的I / O使用率很高,但底层驱动器上的使用率非常低。 因为底层磁盘使用情况良好,所以忽略DRDB驱动器上的I / O使用情况是正确的。 我们有4个Redhat盒Dell PowerEdge R630(比如a,b,c,d),它们具有以下操作系统/软件包。 RedHat EL 6.5 MySql Enterprise 5.6 DRBD 8.4 Corosync 1.4.7 我们已经设置了4路堆叠的drbd资源,如下所示: 群集群集-1:服务器a和b互相连接本地局域网群集群集-2:服务器c和d 群集群集1和群集2通过虚拟IP通过堆叠的drbd连接,是不同数据中心的一部分。 drbd0磁盘已在每个服务器1GB本地创build,并且还连接到drbd10。 底层正常的磁盘使用情况: – Device: rrqm/s wrqm/sr/sw/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util sda2 0.00 3718.00 0.00 441.00 0.00 33268.00 75.44 0.06 0.13 0.08 3.35 avg-cpu: %user %nice %system %iowait %steal %idle 1.25 […]