Articles of drbd

DRBD资源状态

目前我正在使用DRBD复制两台机器上的samba文件服务器。 有时在主服务器上写入失败,当发生这种情况时,资源状态(使用cat / proc / drbd)是: 0: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate A r—n 当事情正常工作的状态是: 0: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate A r—- 唯一的区别是我看到的是在行尾的'n'。 我不认为这与拥塞有关,因为在资源没有活动的时候就会发生这种情况。 使用drbdadm断开连接并重新连接解决了这个问题。 所以,我的问题是:这个'n'是什么意思? 感谢您的帮助!

DRBD的最佳RAID设置

我想build立一个DRBD存储的两个节点PROXMOX群集。 节点将通过千兆以太网连接。 在可靠性,性能和成本select性方面,什么是最好的存储设置? 我最喜欢的是RAID 10,但是我的同事认为RAI​​D 0就足够了,因为DRBD作为RAID 1工作。我也听说RAID 1是不错的select。

DRBD作为XEN VM的一个块设备(Centos 5.3)

我已经在2个服务器节点之间build立了一个drbd资源 – 在两者之间进行同步testing时,一切正常。 (我想用drbd,xen和heartbeat创build一个HA集群) 但是,当我尝试创build一个CentOS作为客户操作系统的XEN虚拟机时,我会看到安装的分区屏幕,但是当我select一个分区types时,下一个屏幕会给我下面的错误: “发生错误 – 没有find有效的设备来创build新的文件系统,请检查您的硬件是否存在此问题的原因。 这是第一次试图创build这样的设置和search谷歌没有什么帮助… 我的configuration文件为DRBD和XEN …. DRBD(只是相关部分) 在xennode0 {device / dev / drbd0; 磁盘/ dev / sda5; 地址XXXX:7788; 灵活的元磁盘内部; } 在xennode1 {device / dev / drbd0; 磁盘/ dev / sda5; 地址XXXX:7788; 元磁盘内部; } XEN kernel =“/ boot / xeninstall / vmlinuz”ramdisk =“/boot/xeninstall/initrd.img”extra =“text”name =“VM”maxmem = 3000 memory = 3000 vcpus […]

引发DRBD资源时内核恐慌

我正在设置两台与DRBD同步的机器。 存储设置如下:PV – > LVM – > DRBD – > CLVM – > GFS2。 DRBD设置为双主模式。 第一台服务器在主模式下设置并运行良好。 第一台服务器上的驱动器上有数据。 我已经build立了第二台服务器,并且试图调出DRBD资源。 我创build了所有的基本LVM来匹配第一台服务器。 用“初始化资源后 drbdadm create-md存储 我正在发布资源 drbdadm存储 发出该命令后,我得到一个内核恐慌,并在30秒内重新启动服务器。 这是一个屏幕截图。 我的configuration如下:操作系统:CentOS 6 uname -a Linux host.structuralcomponents.net 2.6.32-279.5.2.el6.x86_64 #1 SMP Fri Aug 24 01:07:11 UTC 2012 x86_64 x86_64 x86_64 GNU/Linux rpm -qa | grep drbd kmod-drbd84-8.4.1-2.el6.elrepo.x86_64 drbd84-utils-8.4.1-2.el6.elrepo.x86_64 cat /etc/drbd.d/global_common.conf global […]

drbd不会同步安装点

我试图学习与虚拟框centoOS 6.3 drbd,我有两个vm configed,node1和node2,我复制一个文件到挂载点/数据是/ dev / drbd0节点1,但不反映到node2的/数据 这里是configuration # You can find an example in /usr/share/doc/drbd…/drbd.conf.example #include "drbd.d/global_common.conf"; #include "drbd.d/*.res"; global { # do not participate in online usage survey usage-count no; } resource data { # write IO is reported as completed if it has reached both local # and remote disk protocol C; […]

在我们的情况下,为可靠性添加额外服务器的更好方法是什么?

我们有以下服务器: A. 1个运行MySQL的Web服务器(一个论坛)。 B.用Postgres运行RT的1个Web服务器。 C. 1个Web服务器,运行MonetDB作为后端的本地应用程序 现在当然我们希望通过在每台服务器死亡的情况下为每个Web服务器添加一个额外的服务器来增加一点可靠性。但是,最好的和相对便宜的方法是什么? 每个获得一个额外的服务器,并在每种情况下使用适当的技术复制数据库? MySQL的A复制,Slony等B,我真的不知道如何复制MonetDB,但我想这是可能的。 为什么我不喜欢这种情况:由于同步问题导致的可能的数据损坏,例如,临时的电源闪烁可能会导致数据写入从设备,然后主设备返回,然后复制被破坏。 对于Slony来说,你甚至无法做到这一点,你必须先把奴隶推广给一个主人,等等,AFAIK。 我不喜欢这件事的另一件事是不得不手动跋涉所有这一切,并找出谁正在做什么,同步事物等等。 2.获得2个服务器与他们的体面的存储量和设置DRBD。 由于他们将拥有一个共享的IP,因此将所有数据库(例如MySQL,Postgres和Monet)放在DRBD存储上。 关于DRBD的好处是,即使我们失去了集群的一部分,另一个服务器也可以接pipe,所以它更具弹性,我们不会有单点故障。 而且我的理解是,这个级别以上的Web服务器可以简单地进行故障恢复,而不需要担心复制和同步事物等。 3.VMs? 使用虚拟机来设置类似的东西时,最佳做法是什么?

电子邮件homedir存储的安全文件系统? XFS? JFS? BTRFS? Reiser4的?

我build立一个电子邮件系统,并考虑一些文件系统,支持在线resize,停电时安全,并不限制每个目录的文件数量(或者至less可以容纳每个目录几百万文件) 我想知道哪种文件系统最适合这种情况。 你能帮我吗? 提前致谢! PS:我分层为我的电子邮件存储为: 在drbd(/ dev / drbd0)之上的第三层: 文件系统(XFS,JFS,Btrfs,Reiser4,…) 第2层: LVM2逻辑卷上的DRBD(双主模式) 第1层: 物理卷上的LVM2(/ dev / sdc,/ dev / sdd,…) 第0层: 物理卷(sdc,sdd,…)是硬件RAID10(启用“写入caching模式”) (每个“物理卷”实际上是4个HDD) 另一个问题:你在我的devise中看到错误吗? 编辑:我使用3.2内核的Ubuntu 12.04 LTS。

VMware ESX,iSCSI目标 – 冗余

问候队, 我想与专家们分享一个关于如何产生100%正常运行时间和冗余的VMware基础架构的头脑风暴。 我目前正在使用的是2个VMware控制器服务器,它们提供了2个iSCSI目标,实际上是Linux DRBDconfiguration的系统,充当SANS,在目标之间实时复制数据。 如果一个控制器出现故障,如果一个iSCSI目标再次出现故障,那么事情就没有问题,但是如果…在发生灾难时两个iSCSI目标都失败了,那么事情就会变得非常糟糕。 现在,我不反对完全抛弃DRBD的想法,即100%正常运行时间实际上意味着它所服务的具体实例,但考虑到它运行良好,我们推荐作为第三种冗余forms来提供即时或如果尽可能快地转换iSCSI目标的恢复模式,让虚拟机重新联机。 我期待听到回应,祝你有个美好的一天。 尼克

Ubuntu服务器mdadm drbd ocfs2 kvm挂在沉重的文件阅读

我已经部署了四个Ubuntu 10.04服务器。 它们在一个集群场景中两两相连。 在双方我们有软件raid1磁盘,drbd8和OCFS2和一些kvm机器与qcow2磁盘上运行。 我遵循这个: 链接 corosync仅用于DRBD和OCFS,kvm机器是“手动”运行的 当它工作的时候很好:性能良好,I / O性能好,但是在特定时间,两个簇中的一个开始挂起。 然后,我们试着只打开一台服务器,并挂起相同的。 这似乎发生在一个虚拟机发生沉重的读取,即在rsyn备份期间。 当事实发生时,虚拟机不再可及,真正的服务器响应延迟很好,但没有屏幕和ssh可用。 我们所能做的只是强制关机(按住button)并重新启动,当它再次打开时,drbd正在重新同步。 所有的时间,我们看到这样的事实。 今天早上,在一个星期的一阵痛苦之后,另一个集群挂了,但它有不同的moteherboard,ram,kvm实例。 什么是类似的阅读rsyncscheme和西方数字RAID Edistion磁盘两侧。 有人可以给我一些解决这个问题的build议吗? 更新:我将qcow2中的所有映像转换为raw,并使用noatime和nodiratime从虚拟机中挂载文件系统。 我用的是rsync的ionice,但是今天早上当用户从samba共享中读取大量文件时,它又被挂起了。 现在我正在把虚拟机从ocfs2想象成ext3,但是这真的是一个失败……任何想法都是值得欢迎的。

需要一个弹性IP接口(DRBD&EC2)

我们试图使用DRBD(和Ubuntu 11.10)在一个地理区域上镜像卷。 我们正在使用弹性IP – 但是没有Elastic IP的本地接口 – 只有本地IP的接口。 因此,DRBD将无法工作,因为它需要一个接口。 我曾考虑过使用VIP或VPN来使用本地IP,但是这会降低连接的层次。 任何想法或想法? [US EAST 1] [US WEST 1] [EC2-INSTANCE] -> [ELASTIC-IP] -> DRBD <- [ELASTIC-IP] <- [EC2-INSTANCE] *no eth interface* *no eth interface* 编辑:替代解决scheme(对DRBD /集群/ Replciating)是多余的欢迎! 编辑2: 客户端连接到address.com,TCP端口5001 TCP窗口大小:16.0 KByte(默认) [3]本地10.160.27.107端口59254与107.21.118.27端口连接5001 [ID]间隔传输带宽[3] 0.0-10.0秒44.1 MBytes 36.9 Mbits / sec (Mbits / sec是25到36)