我有一个64位的Ubuntu Jaunty服务器(内核2.6.28-17-服务器)安装在两个SATA磁盘(sdc和sde)在一个镜像RAID,这是我目前的RAIDconfiguration:
cat / proc / mdstat 个性:[线性] [多重] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md5:激活raid1 sdd7 [1] sdc7 [0] 126953536块[2/2] [UU] md2:激活raid1 sdd3 [1] sdc3 [0] 979840 blocks [2/2] [UU] md0:激活raid1 sdd1 [1] sdc1 [0] 96256 blocks [2/2] [UU] md4:激活raid1 sdd6 [1] sdc6 [0] 9767424块[2/2] [UU] md3:active raid1 sdd5 [1] sdc5 [0] 979840 blocks [2/2] [UU] md1:激活raid1 sdd2 [1] sdc2 [0] 1951808块[2/2] [UU] 未使用的设备:无
#df -h 使用的文件系统大小可用使用% / dev / md4 9.2G 922M 7.9G 11%/ tmpfs 490M 0 490M 0%/ lib / init / rw varrun 490M 316K 490M 1%/ var / run varlock 490M 0 490M 0%/ var / lock udev 490M 228K 490M 1%/ dev tmpfs 490M 0 490M 0%/ dev / shm lmm 490M 2.5M 488M 1%/lib/modules/2.6.28-17-server/volatile / dev / md0 89M 55M 30M 65%/ boot / dev / md5 120G 96G 18G 85%/数据 / dev / md2 942M 18M 877M 2%/ tmp / dev / md3 942M 186M 709M 21%/ var
用户正在快速填充/数据Samba共享,所以我添加了两个额外的硬盘(sda和sdb,他们是完全相同的types和大小),因为我想创build另一个镜像,然后安装新的RAID设备里面/数据。
我采取的步骤是在每个新磁盘上创build一个Linux raid自动检测分区,确保它们的大小相同。
fdisk / dev / sda -l 磁盘/ dev / sda:122.9 GB,122942324736字节 255个磁头,63个扇区/磁道,14946个磁道 单位= 16065 * 512 = 8225280字节的柱面 磁盘标识符:0x000e2e78 设备引导启动结束块Id系统 / dev / sda1 1 14946 120053713+ fd Linux raid autodetect
fdisk / dev / sdb -l 磁盘/ dev / sdb:122.9 GB,122942324736字节 255个磁头,63个扇区/磁道,14946个磁道 单位= 16065 * 512 = 8225280字节的柱面 磁盘标识符:0x000ef08e 设备引导启动结束块Id系统 / dev / sdb1 1 14946 120053713+ fd Linux raid autodetect
接下来我创build了新的镜像:
mdadm --create / dev / md6 --level = mirror --raid-devices = 2 / dev / sda1 / dev / sdb1
在哪一点我得到了以下警告:
mdadm:/ dev / sdb1似乎包含一个ext2fs文件系统 大小= 120053712K时间=十二月十九日星期六11:10:30 2009 继续创build数组?
这很奇怪,因为我刚刚创build了新的分区,而且我从来没有创build过一个文件系统,但无论如何,我继续等待同步完成。
一切似乎都很好:
cat / proc / mdstat 个性:[线性] [多重] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md6:激活raid1 sdb1 [1] sda1 [0] 120053632 blocks [2/2] [UU] md5:激活raid1 sdd7 [1] sdc7 [0] 126953536块[2/2] [UU] md2:激活raid1 sdd3 [1] sdc3 [0] 979840 blocks [2/2] [UU] md4:激活raid1 sdc6 [0] sdd6 [1] 9767424块[2/2] [UU] md3:active raid1 sdc5 [0] sdd5 [1] 979840 blocks [2/2] [UU] md1:激活raid1 sdc2 [0] sdd2 [1] 1951808块[2/2] [UU] md0:激活raid1 sdc1 [0] sdd1 [1] 96256 blocks [2/2] [UU] 未使用的设备:无
mdadm --detail / dev / md6 的/ dev / MD6: 版本:00.90 创作时间:周六12月19日11:33:31 团队副本:raid1 arrays大小:120053632(114.49 GiB 122.93 GB) 使用的Dev尺寸:120053632(114.49 GiB 122.93 GB) RAID设备:2 设备总数:2 优先轻微:6 持久性:超级块是持久的 更新时间:2009年12月19日星期六12:24:14 状态:干净 有源器件:2 工作设备:2 失败的设备:0 备用设备:0 UUID:b901925f:b5ca90e0:afcf3cfb:09b88def(本地到主机szerver.mtvsz.local) 事件:0.4 数量主要次要RaidDevice状态 0 8 1 0主动同步/ dev / sda1 1 8 17 1主动同步/ dev / sdb1
但是一旦我重新启动,问题就来了:
cat / proc / mdstat 个性:[线性] [多重] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md_d6:不活动sdb1 [1](S) 120053632块 md3:active raid1 sdc5 [0] sdd5 [1] 979840 blocks [2/2] [UU] md5:激活raid1 sdc7 [0] sdd7 [1] 126953536块[2/2] [UU] md2:active raid1 sdc3 [0] sdd3 [1] 979840 blocks [2/2] [UU] md1:激活raid1 sdd2 [1] sdc2 [0] 1951808块[2/2] [UU] md0:激活raid1 sdd1 [1] sdc1 [0] 96256 blocks [2/2] [UU] md4:激活raid1 sdd6 [1] sdc6 [0] 9767424块[2/2] [UU] 未使用的设备:无
ls / dev / md * / dev / md0 / dev / md2 / dev / md4 / dev / md_d6 / dev / md_d6p2 / dev / md_d6p4 / dev / md1 / dev / md3 / dev / md5 / dev / md_d6p1 / dev / md_d6p3
所以我的问题是: 这是什么与md_d6及其分区?
好吧,这似乎是一个mdadm错误,或者我错过了一个手动步骤。 发出这个命令后
mdadm --examine --scan --config = mdadm.conf >> /etc/mdadm/mdadm.conf
并重新启动它似乎raidarrays现在好了。 愚蠢的错误:)