Articles of mdadm

Can not resize2fs – flex_bg和!resize_inode的组合

我最近用mdadm设置了我的第一个软件raid,在向raid添加更多的磁盘之后,我无法将文件系统重新设置为raid的全部大小。 我通过以下方法在/ dev / md0上创build了一个(〜16TB)文件系统: mkfs.ext4 -v -b 4096 -t huge -E stride=128,stripe-width=256 /dev/md0 然后我等了几天,因为老袭击的所有数据都抄袭了新的袭击。 我移动了磁盘,并增加了RAID,最后我: resize2fs -p /dev/md0 哪一个通知我 resize2fs 1.42 (29-Nov-2011) resize2fs: /dev/md0: The combination of flex_bg and !resize_inode features is not supported by resize2fs 我完全不了解这两个function究竟是为了什么,或者为什么这个组合很麻烦,所以为了更好的判断,我尝试添加resize_inode: tune2fs -O +resize_inode /dev/md0 但是我被击落了: Setting filesystem feature 'resize_inode' not supported. 而且我还不够勇于去除flex_bg,因为我真的不想做任何可能使我的数据处于危险之中的事情。 我正在使用3.5.1内核运行Ubuntu 12.04: Linux critter 3.5.1-030501-generic […]

mdadm + zfs vs mdadm + lvm

这可能是一个天真的问题,因为我是新手,我无法find关于mdadm + zfs的任何结果,但经过一些testing,似乎它可能工作: 用例是一个带有RAID6的服务器,用于某些备份的数据。 我认为我可以很好地服务于任何ZFS或RAID6。 平台是Linux。 性能是次要的 。 所以我正在考虑的两个设置是: 一个RAID6arrays加规则的LVM和ext4 一个RAID6arrays加上ZFS(没有冗余)。 这是第二个选项,我没有看到任何讨论。 为什么ZFS + RAID6? 这主要是因为ZFS无法使用新磁盘来增长raidz2。 我知道,你可以更换更大的磁盘,但不能添加另一个磁盘。 您可以使用mdadm作为冗余层来实现2磁盘冗余和ZFS磁盘增长。 除了这个要点(否则我可以直接去raidz2下没有RAID),这些都是我看到每个选项的利弊: ZFS有没有预先分配空间的快照。 LVM需要预分配(可能不再是真实的)。 ZFS有校验(对此非常感兴趣)和压缩(很好的奖金)。 LVM在线文件系统增长(ZFS可以通过export / mdadm –grow / import离线执行)。 LVM具有encryptionfunction(ZFS-on-Linux没有)。 这是我看到的这个组合的唯一主要内容。 我想我可以去RAID6 + LVM + ZFS …似乎太重了,还是不行? 所以,以一个适当的问题来结束: 1)是否有什么内在的阻碍或排除RAID6 + ZFS? 任何人都有这样的设置的经验? 2)校验和压缩有没有可能使ZFS不必要(保持文件系统增长的可能性)? 因为RAID6 + LVM组合似乎是被认可的,经过testing的方式。

如何在Debian / Ubuntu上设置可引导的RAID1的RAID1?

在Debian 6的新安装中,build立一个软件RAID1arrays的build议方法是什么,以便系统可以从两个磁盘启动? 我听说不知道自己在做什么的人可能会这样设置,以至于如果主磁盘出现故障(!),系统将无法启动。 我一直无法find最新版本的Debian步骤的简单列表。

Linux mdadm –grow RAID6:出错了 – 重新中止

我有一个我想要扩展的RAID60。 当前是:2个轴,每个9个磁盘+2个备用。 未来是:每个有10个磁盘+ 1个备用的4个车轴。 所以我需要做一些改进,重塑驱动器。 我觉得这足够了: mdadm -v –grow /dev/md1 –raid-devices=10 –backup-file=/root/back-md1 mdadm -v –grow /dev/md2 –raid-devices=10 –backup-file=/root/back-md2 mdadm -v –grow /dev/md0 –raid-devices=4 –add /dev/md3 /dev/md4 最后一个命令有效,但是两个第一个命令失败: mdadm: Need to backup 7168K of critical section.. mdadm: /dev/md2: Something wrong – reshape aborted 怎样才能让RAID6使用更多的设备? 有关系统的信息: $ mdadm –version mdadm – v3.2.5 – 18th May 2012 $ […]

本土的SAN – 拓扑结构的想法?

我有兴趣使用以下技术在Linux上手动运行SAN解决scheme: iSCSI的 mdadm袭击 LVM 多 XFS / GFS / ??? 组合的NIC 硬件方面,我正考虑在目标和启动器上使用多个gigE网卡的2台gigE(或更好的)交换机。 人们对于如何configuration这个方面有什么build议,理想情况下是推定完全n + 1(min)冗余? 另外,在iSCSI“结构”中间是否需要一组聚合器主机? 像这样的东西: 目标(使用mdadm)<-gigE->聚合器主机(lvm)<-gigE->启动器 还是这样做更好: 目标(不镜像)<-gig->聚合器主机(mdadm)<-gigE->启动器(lvm) 有很多方法来devise这个,我会对其他人在做类似的事情上有什么经验感兴趣? SAN将用于VMware映像和通用文件服务(如果可行的话还会加上一些数据库)。

慢速md RAID-1arrays

我们的服务器上的磁盘响应速度非常慢, 我检查了iostat( iostat -d -x 30 ),并解释了一些问题: Device: rrqm/s wrqm/sr/sw/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util sdb 1.04 396.31 6.60 57.44 382.47 3649.21 62.95 10.31 160.87 8.64 55.36 sda 6.26 391.15 16.16 62.75 1810.79 3649.22 69.19 2.97 37.66 1.79 14.13 md0 0.00 0.00 0.55 0.01 16.88 0.08 30.11 0.00 0.00 0.00 0.00 md1 0.00 […]

创buildRAID 1arrays的备份磁盘映像(MDADM)

我们有一些服务器运行在非常恶劣的环境(研究船),需要有高可用性。 我们有软件RAID 1来提供一定程度的恢复能力,以及适当的数据备份(磁带等),但是我们希望能够打破新的服务器,并从一个已知的好副本重新映像它(包括RAID设置),如果生产箱上的硬件完全失效。 简单的过程是一个很大的好处。 我感兴趣的任何build议,最好的方法来解决这个问题。 我目前的方法(对Linuxpipe理来说比较新,对于MDADM来说是全新的),就是使用DD从一个live CD中取出一个RAID设备的完整gzip拷贝: dd if=/dev/sda bs=4096 | gzip -c > /mnt/external/image/test.img dd if=/dev/sda bs=4096 | gzip -c > /mnt/external/image/test.img然后在新PC上反转进程,最后使用mdadm –assemble重新创build并重新构build数组。 我不确定这是最好的方法,还是甚至可以工作。 任何build议将是伟大的。

为什么mdadm的RAID-1无论位图是从头开始重新同步?

# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 nbd0[3] sda10[0] 53246315 blocks super 1.2 [3/1] [U__] [>………………..] recovery = 1.0% (537088/53246315) finish=203.0min speed=4326K/sec bitmap: 1/1 pages [4KB], 65536KB chunk unused devices: <none> # nbd-client -d /dev/nbd0 Disconnecting: que, disconnect, sock, done # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 nbd0[3](F) sda10[0] […]

成功后(?)mdadm grow和resize2fs损坏了Ext4超级块

一些系统细节 AMD羿龙II X6 1090T,16GB DDR3 1600运行11.04 2.6.38-8-server , 2.6.38-8-server 有关RAID的问题包括5 SATA drives ; 4 Samsung , 1 Western Digital ; 每个500 GB 驱动器连接到LSI SAS 9201-16i主机总线适配器卡 Raid是使用mdadm软件。 其他两个数组( /dev/md1 , /dev/md2 )没有问题。 所以我的袭击是敬酒。 在这一点上,我几乎没有深度,所以我希望这里有人能指引我一些好的方向。 正如我在下面提到的,我已经在这个16个小时左右(rest一下,清除了头脑!)我一直在读这里和其他地方的一切。 大部分的build议都是一样的,并不令人鼓舞,但是我希望能够吸引更多知识渊博的人。 所以…昨天我试图添加一个额外的驱动器到我的RAID 5arrays。 为此,我closures了盒子,插入了新的驱动器,并重新给机器供电。 迄今为止都很好。 然后,我卸载arrays % sudo umount /dev/md0 并继续进行文件系统检查。 % sudo e2fsck -f /dev/md0 一切顺利。 我在新驱动器/dev/sdh1上创build了一个主分区,并将其设置为inputLinux raid autodetect /dev/sdh1 […]

用例“mdadm –create”与“mdadm –build”?

从mdadm手册页–build部分: 这个用法类似于–create。 不同之处在于它创build了一个没有超级块的传统arrays。 ^^所以没有超级块与–build。 10-4。 接下来是: 有了这些数组,在开始创build数组和随后组装数组之间没有任何区别,除非希望在第二种情况下有数据。 ^我对这个说法感到困惑。 任何人都可以重述吗? 什么将是一个用例–build而不是–create?