Articles of drbd

是否有可能创build一个具有两个DRBD节点的多pathiSCSI目标?

我可以放在一起使用两个linux服务器,并使用(或多或less)新的DRBD 双主function获得在两个节点上并发读/写访问的共享块设备。 然后,我可以从每个节点导出iSCSI目标 ,并使用这两个iSCSI多path设备吗? 例如。 来模拟双控制器iSCSI存储arrays 我知道我可以通过iSCSI在两个节点上工作,但是我不知道多path事物是否需要从两个目标获得任何知识,或者只要iSCSI是完全独立的,没有共享状态。 (注意,我不打算在生产中使用这样的设置,它只是替代我们不拥有的真正的双控制器iSCSIarrays的testing平台,我将连接一个服务器到两个目标,并testing通过断开两个链路之一进行多path)

Ganeti磁盘降级了drbd cs:NetworkFailure

我有一个Ganeti上的实例(与2disk),两个磁盘退化(可能是由于连接问题?)。 直到今天早上这个事例多年来都是正确的。 在我的主人 $ gnt-instance info myinstance … -disk/0 on primary: /dev/drbd4 (147:4) in sync, status *DEGRADED* on secondary: /dev/drbd4 (147:4) in sync, status *DEGRADED* child devices: – child 0: lvm, size 20.0G logical_id: kvmvg/299a0bdf-1acb-4bcd-ac43-eb02b0928757.disk0_data on primary: /dev/kvmvg/299a0bdf-1acb-4bcd-ac43-eb02b0928757.disk0_data (254:10) on secondary: /dev/kvmvg/299a0bdf-1acb-4bcd-ac43-eb02b0928757.disk0_data (254:8) – child 1: lvm, size 128M logical_id: kvmvg/299a0bdf-1acb-4bcd-ac43-eb02b0928757.disk0_meta on primary: /dev/kvmvg/299a0bdf-1acb-4bcd-ac43-eb02b0928757.disk0_meta (254:11) […]

原始磁盘块设备上的DRBD

我尝试在没有分区表的原始磁盘设备/dev/sdb上设置DRBD,也没有在LVM栈PV / VG / LV上设置DRBD 由于这个磁盘是虚拟的,pipe理程序我使用允许即时磁盘扩展,所以我不想在LVM操作或重新分区的时候扩展我的DRBD文件系统 我的资源定义不能简单一些 resource data { device /dev/drbd1; meta-disk internal; disk /dev/sdb; on node1 { address 10.10.10.16:7789; } on node2 { address 10.10.10.17:7789; } } 创build元数据作品 # drbdadm create-md data initializing activity log NOT initializing bitmap Writing meta data… New drbd meta data block successfully created. 但附加操作失败 # drbdadm attach data […]

DRBD或类似的caching/有限networking上的networkingRAID

我正在寻找方法来创build某种文件复制,而不会在文件操作上失去太多的性能。 由于非技术性限制,真正的RAID不是一种select。 据我了解,DRBD试图像一个真正的RAID1,立即分发变化。 从我所读的内容来看,这只有在服务器真正接近彼此(同一个机架)时才有意义。 但是,在文件系统的复制和HD故障情况下的数据部分丢失之间,我可能存在一定的延迟(例如15-30分钟)。 你能指出我的方向吗? 是否有非实时文件复制? 或者我会更好的简单地调用rsync一遍又一遍? 是否有任何比较DRBD与软件RAID系统的不同延迟的基准。

Redhat群Vs Pacemaker Vs Gluster Vs牧羊犬

如前所述,改变整个问题非常混乱。 我一直在探索不同的集群系统,以在LAN上的两台不同的机器上运行虚拟机,并具有高可用性。 目前,我已经在主/从模式下在两台不同的机器上使用DRBD资源。 如果主服务器出现故障,我手动将辅助服务器升级到主服务器,并启动虚拟机 我也探索Gluster和看起来不错,但是,我宁愿群集Gluster(用户空间FS)。 所以如果有人有想法哪一个会更好从易用性准,请我会感兴趣。 而且,牧羊犬项目看起来不错,但找不到太多的文件/ Howtos。 我正在使用Centos 6。

将第三个节点添加到现有的DRBD群集

我们目前有一个2节点DRBD集群正在运行,我们想要添加第三个节点。 到目前为止,我无法find任何资源是否有可能将第三个节点添加到现有的群集,只有如何设置最初有三个节点的群集。 我的问题是,是否有可能添加第三个节点,我将如何去做呢?

DRBD上的文件(而不是分区)

我们有许多使用磁盘映像文件的Xen虚拟机。 disk = ["file:/xen/vbd/something.vbd,sda1,w"] 我们希望使用DRBD来复制这些文件进行备份(而不是MySQL复制和我们目前的夜间rsyncs)。 但我似乎并不明白如何使其工作。 我们可以使用losetup将文件绑定到回送设备: # losetup /dev/loop0 /xen/vbd/something.vbd 并指向该设备的DRBD: device /dev/drbd1; disk /dev/loop0; 但是环回不稳定 – 重启时不存在,很容易被连接到loop1,loop2等。如果服务器需要人工交互来恢复电源中断。 我错过了什么?

廉价可靠的高可用性解决scheme?

我们正在寻找一种方法来提高我们的服务器(Apache / MySQL / Virtualmin设置)的可靠性。 到目前为止,在过去的六个月里,我们已经对这台服务器产生了各种各样的麻烦(DNS故障,DDOS,Dom0故障,networking中断,DomU故障,…在一个愉快的一天2)在不到一天的时间里,仍然令人担忧 – 该主机上有大约50个客户网站,每次服务器停机时服务器的可用性仍然超过合同保证的99%,但是…请记住服务器停机5次,而不是360天)。 目前计划: 备份DNS服务器(不应该是一个很大的问题) 服务器本身的高可用性设置。 这里的问题是数据复制到辅助主机。 主机与Hetzner不同,数据中心不同,所以我们的带宽是非常有限的(100M的上行链路,实际用户至less应该有一些带宽),而数据encryption更多less一个固定的要求。 DRBD本身通过广域网扩展性差,也不提供encryption。 DRBD代理声称可以解决带宽问题(但不是encryption问题,据我所知),但是从我读的内容来看,它太贵了,5千美元/年太多了(我敢肯定,我们正在使用该服务器)。 另一方面,从我个人的经验来看,OpenVPN / SSH隧道不够可靠,不能保证我们不会有虚假警报触发不必要的故障转移(不用担心会降低硬盘性能的开销)。 那么…还有什么替代品? 还是我只是俯视一些东西? 编辑:为了澄清,我更喜欢在文件系统/块设备级别的复制。 应用程序级的复制是可能的,但我宁愿有一个复制解决scheme运行,而不是每个应用程序。

在双节点apache集群中镜像数据的最佳方法

我构build了一个新的服务器结构,并计划在它们后面有两个apache workhorses和一个sql数据库。 我想知道在Apache服务器之间镜像数据的最好方法是什么。 用户数据应该限制在这些服务器上,因为大部分服务器都可以通过S3访问。 从迄今为止我所做的前期研究来看,我已经读过关于GlusterFS和DRBD的内容,但是一个简单的rsync脚本能做到这一点吗?

可以在两台ESXi虚拟化服务器上​​使用DRBD?

我有两个服务器(连接的磁盘已经设置为硬件RAID1磁盘设备级别的故障弹性)。 这是我心中的设置: 1)在每台物理服务器M1,M2上安装ESXi; 2)在每个ESXi虚拟化物理服务器V1,V2上启动一个虚拟机; 3)在V1和V2中安装DRDB驱动程序。 本质上,这是一个“虚拟机在虚拟机中运行DRBD而不是裸机硬件”的想法。 我的问题是,上述设置是否可以实现DRDB在裸机物理机器上可以实现的相同“联网RAID1”目标( http://www.drbd.org/ )。 谢谢。 [编辑]我发现这个( DRBD实验和虚拟化 )是一个类似的问题,但答案似乎并不足以让我跟随。 [编辑2]我需要了解的一件事是VM内的DRBD驱动程序是否得到了“确定,数据刷新到本地磁盘”回声意味着“数据已被刷新到下划线的物理磁盘”。 因为我想考虑像“裂脑问题”