我有一台VMware ESXi 4服务器和两台存储服务器(通过nfs安装)。 存储服务器(Fedora 14)之间是drbd群集(双主)和ocfs2文件系统; 每台服务器都有一个带有ext4文件系统的本地分区,两者都通过nfs在esxi服务器上挂载。 当我试图从ext4分区拷贝一个虚拟机(当然是closures的)到ocfs2分区时,vmdk的总文件大小是不同的,但是md5sum是相同的。 在ext4分区上: # ls -la total 28492228 -rw——- 1 root root 42949672960 Jan 14 14:46 disk-flat.vmdk # md5sum disk-flat.vmdk 0eaebe3138beb32f54ea5de6dfe5a987 在ocfs2分区上: # ls -la total 13974660 -rw——- 1 root root 42949672960 Jan 14 16:16 disk-flat.vmdk # md5sum disk-flat.vmdk 0eaebe3138beb32f54ea5de6dfe5a987 当我从ocfs2分区启动虚拟机时,它无法工作。 我在虚拟机上有一个窗口,它在Windows徽标之后冻结。 从虚拟机ext4分区工作。 我testing了与Linux(创build和安装在ext4分区,然后复制到ocfs2),同样的问题出现。 当我从ocfs2分区直接创build虚拟机时,没有任何问题。 我试图通过vSphere客户端复制,我也有同样的问题。 有什么build议么?
我期待部署一个基于Oracle DB的应用程序,而且我假定可以轻松地进行主动/被动群集(RH Cluster或Heartbeat)和同步复制,我正在聊天,看着我很有趣。 有些人提供了贫民窟复制,他们称之为“日志传送”,即通过networkingasynchronous同步文件,但这意味着我们可能会丢失长达一个小时的数据。 另一种方法是为Oracle Data Guard或其他方面支付数百万美元(好几万到几十万)。 我很困惑,因为我在一个非常苛刻的系统(数十到数百GB的支付交易)上工作了数年,这个系统使用PostgreSQL而不是DRBD,通过大都会地区networking来完成接近$ 0的要求。 我在这里假设SAN复制和DRBD做同样的事情,也就是同步复制,其中写入的块只有在远程写入之后才被确认。 我错了吗? 我在这里错过了什么?
我有2个节点Proxmox群集。 对于KVM映像,我使用带有GFS2的DRBD设备。 一切工作正常,除了服务器重启后的GFS2自动挂载。 我放入fstab: /dev/drbd0 /cluster/drbd0 gfs2 rw,noatime,nodiratime,_netdev 0 0 手动它挂载( mount /dev/drbd0 ),但每次重新启动后,我必须手动安装它。 由于我使用Proxmox,所以最好使用它的function。 那么,如何使这个挂载点automount?
当我尝试使用mkfs.ext3格式化/ dev / drbd0时,出现以下错误消息: mkfs.ext3:错误的媒体types,而试图确定文件系统的大小。 我在这里find了解决办法: http://eng.eelcowesemann.nl/linux-unix/general/mkfs-ext3-wrong-medium-type-while-trying-to-determine-filesystem-size/ 但是,如果我执行sueggested命令drbdadm主testing,我得到了以下错误: 0:状态改变失败:(-1)configuration命令'drbdsetup 0 primary'以退出码11结束 有任何想法吗 ? 命令输出cat / proc / drbd: version: 8.3.7 (api:88/proto:86-91) srcversion: EE47D8BF18AC166BE219757 0: cs:Connected ro:Secondary/Primary ds:UpToDate/UpToDate C r—- ns:0 nr:0 dw:0 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:0 和 drbd.conf: # You can find an example in /usr/share/doc/drbd…/drbd.conf.example #include "drbd.d/global_common.conf"; #include […]
我精确地按照这些说明(我已经从头开始使用11.04和11.10与使用AMI相同的结果) (使用11.04)社区AMI:ami-e016ca89 https://help.ubuntu.com/11.04/serverguide/C/drbd.html和(使用11.10)社区AMI:ami-baba68d3 https://help.ubuntu.com/ 11.10 /的ServerGuide / C / drbd.html 启动过程中出现以下错误: root@drbd01:~# sudo /etc/init.d/drbd start * Starting DRBD resources Can not load the drbd module. 创build一个卷(两个版本)250GB卷,附加为/ dev / xvdm 这是我的configuration文件: global { usage-count no; } common { syncer { rate 100M; } } resource r0 { protocol C; startup { wfc-timeout 15; degr-wfc-timeout 60; } […]
我正在testing设置一个具有DRBD存储的Xen DomU,以实现轻松故障切换。 在大多数情况下,在DomU启动后立即出现IO错误: [ 3.153370] EXT3-fs (xvda2): using internal journal [ 3.277115] ip_tables: (C) 2000-2006 Netfilter Core Team [ 3.336014] nf_conntrack version 0.5.0 (3899 buckets, 15596 max) [ 3.515604] init: failsafe main process (397) killed by TERM signal [ 3.801589] blkfront: barrier: write xvda2 op failed [ 3.801597] blkfront: xvda2: barrier or flush: disabled [ […]
我公司在当前的设置中只有一个存储盒(SuperMicro硬件+带有LSI RAID卡和12个SAS 7.2K驱动器的机箱)。 它在linux上运行,我们通过iSCSI将它连接到我们的文件服务器。 我们买不起高端的SAN。 虽然它有冗余的部分(双电源,RAID 10),我想添加到一个辅助框复制的目的。 我正在考虑以下两个选项来复制从节点1到节点2的数据 使用DRBD创build基于networking的镜像。 主动/被动。 节点1保持为iSCSI目标,并在其下面设置drbd,以便数据可以复制到节点2.如果节点1由于networking问题而closures,则我认为恢复速度要快得多,因为我们不必重新同步数据一旦节点1被插回到networking中,则从头开始节点2。 将这两个节点设置为一个独立的框。 它们中的每一个都将向我们的MS服务器2008 FS公开一个LUN。 从那里,我将设置一个基于Windows的软件镜像使用两个LUN。 我担心的是,如果其中一个LUN丢失,我们将不得不重build整个arrays,这将非常耗时,因为我们有大约6TB的数据要复制。 对我来说,两者都有很好的用途,但是DRBD选项似乎更为复杂。 请告知利弊。
我已阅读http://www.drbd.org/users-guide/ch-internals.html#s-meta-data-size中提供的文档以build立DRBD元大小,但我正在努力关联即实际的磁盘大小和文件系统大小。 有没有一种方法可以检索扇区中的文件系统大小(以及块设备),以获取元数据的正确值。
我目前正在试图通过XEN模拟环境。 我已经安装了这样的FS布局的两个debian系统: cltest1:/ etc#df -h 使用的文件系统大小可用使用% / dev / xvda2 6.0G 417M 5.2G 8%/ tmpfs 257M 0 257M 0%/ lib / init / rw udev 10M 16K 10M 1%/ dev tmpfs 257M 4.0K 257M 1%/ dev / shm 主机cltest2是相同的。 这是我的drbd.conf 全球{ 小数1; } 资源mysql { 协议C; syncer { 率10M; #10兆字节 } 在cltest1 { 设备/ dev […]
我正在设置一台服务器,并将SSD作为主驱动器,并希望将数据作为块级备份(RAID 1)复制到更便宜的驱动器上。 由于我不想耽搁SSD的性能,所以我正在考虑使用asynchronous镜像来设置DRBD,这样一来,主轴驱动器上的更改就会排队等待,并且一旦IO许可就会同步。 但是,我想知道是否有人尝试过这样的事情,如果有任何“疑难”要注意。 或者,如果有更好的技术来解决同样的问题,请分享。