Linux的Raid:神秘的md_d设备

我有一个64位的Ubuntu Jaunty服务器(内核2.6.28-17-服务器)安装在两个SATA磁盘(sdc和sde)在一个镜像RAID,这是我目前的RAIDconfiguration:

  cat / proc / mdstat
个性:[线性] [多重] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]

 md5:激活raid1 sdd7 [1] sdc7 [0]
       126953536块[2/2] [UU]

 md2:激活raid1 sdd3 [1] sdc3 [0]
       979840 blocks [2/2] [UU]

 md0:激活raid1 sdd1 [1] sdc1 [0]
       96256 blocks [2/2] [UU]

 md4:激活raid1 sdd6 [1] sdc6 [0]
       9767424块[2/2] [UU]

 md3:active raid1 sdd5 [1] sdc5 [0]
       979840 blocks [2/2] [UU]

 md1:激活raid1 sdd2 [1] sdc2 [0]
       1951808块[2/2] [UU]

未使用的设备:无
  #df -h
使用的文件系统大小可用使用%
 / dev / md4 9.2G 922M 7.9G 11%/
 tmpfs 490M 0 490M 0%/ lib / init / rw
 varrun 490M 316K 490M 1%/ var / run
 varlock 490M 0 490M 0%/ var / lock
 udev 490M 228K 490M 1%/ dev
 tmpfs 490M 0 490M 0%/ dev / shm
 lmm 490M 2.5M 488M 1%/lib/modules/2.6.28-17-server/volatile
 / dev / md0 89M 55M 30M 65%/ boot
 / dev / md5 120G 96G 18G 85%/数据
 / dev / md2 942M 18M 877M 2%/ tmp
 / dev / md3 942M 186M 709M 21%/ var

用户正在快速填充/数据Samba共享,所以我添加了两个额外的硬盘(sda和sdb,他们是完全相同的types和大小),因为我想创build另一个镜像,然后安装新的RAID设备里面/数据。

我采取的步骤是在每个新磁盘上创build一个Linux raid自动检测分区,确保它们的大小相同。

  fdisk / dev / sda -l

磁盘/ dev / sda:122.9 GB,122942324736字节
 255个磁头,63个扇区/磁道,14946个磁道
单位= 16065 * 512 = 8225280字节的柱面
磁盘标识符:0x000e2e78

   设备引导启动结束块Id系统
 / dev / sda1 1 14946 120053713+ fd Linux raid autodetect
  fdisk / dev / sdb -l

磁盘/ dev / sdb:122.9 GB,122942324736字节
 255个磁头,63个扇区/磁道,14946个磁道
单位= 16065 * 512 = 8225280字节的柱面
磁盘标识符:0x000ef08e

   设备引导启动结束块Id系统
 / dev / sdb1 1 14946 120053713+ fd Linux raid autodetect

接下来我创build了新的镜像:

  mdadm --create / dev / md6 --level = mirror --raid-devices = 2 / dev / sda1 / dev / sdb1 

在哪一点我得到了以下警告:

  mdadm:/ dev / sdb1似乎包含一个ext2fs文件系统
    大小= 120053712K时间=十二月十九日星期六11:10:30 2009
继续创build数组?

这很奇怪,因为我刚刚创build了新的分区,而且我从来没有创build过一个文件系统,但无论如何,我继续等待同步完成。

一切似乎都很好:

  cat / proc / mdstat
个性:[线性] [多重] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
 md6:激活raid1 sdb1 [1] sda1 [0]
       120053632 blocks [2/2] [UU]

 md5:激活raid1 sdd7 [1] sdc7 [0]
       126953536块[2/2] [UU]

 md2:激活raid1 sdd3 [1] sdc3 [0]
       979840 blocks [2/2] [UU]

 md4:激活raid1 sdc6 [0] sdd6 [1]
       9767424块[2/2] [UU]

 md3:active raid1 sdc5 [0] sdd5 [1]
       979840 blocks [2/2] [UU]

 md1:激活raid1 sdc2 [0] sdd2 [1]
       1951808块[2/2] [UU]

 md0:激活raid1 sdc1 [0] sdd1 [1]
       96256 blocks [2/2] [UU]

未使用的设备:无
  mdadm --detail / dev / md6
的/ dev / MD6:
        版本:00.90
  创作时间:周六12月19日11:33:31
     团队副本:raid1
     arrays大小:120053632(114.49 GiB 122.93 GB)
  使用的Dev尺寸:120053632(114.49 GiB 122.93 GB)
    RAID设备:2
  设备总数:2
优先轻微:6
    持久性:超级块是持久的

    更新时间:2009年12月19日星期六12:24:14
          状态:干净
 有源器件:2
工作设备:2
 失败的设备:0
  备用设备:0

            UUID:b901925f:b5ca90e0:afcf3cfb:09b88def(本地到主机szerver.mtvsz.local)
         事件:0.4

    数量主要次要RaidDevice状态
        0 8 1 0主动同步/ dev / sda1
        1 8 17 1主动同步/ dev / sdb1

但是一旦我重新启动,问题就来了:

  cat / proc / mdstat
个性:[线性] [多重] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
 md_d6:不活动sdb1 [1](S)
       120053632块

 md3:active raid1 sdc5 [0] sdd5 [1]
       979840 blocks [2/2] [UU]

 md5:激活raid1 sdc7 [0] sdd7 [1]
       126953536块[2/2] [UU]

 md2:active raid1 sdc3 [0] sdd3 [1]
       979840 blocks [2/2] [UU]

 md1:激活raid1 sdd2 [1] sdc2 [0]
       1951808块[2/2] [UU]

 md0:激活raid1 sdd1 [1] sdc1 [0]
       96256 blocks [2/2] [UU]

 md4:激活raid1 sdd6 [1] sdc6 [0]
       9767424块[2/2] [UU]

未使用的设备:无
 ls / dev / md *
 / dev / md0 / dev / md2 / dev / md4 / dev / md_d6 / dev / md_d6p2 / dev / md_d6p4
 / dev / md1 / dev / md3 / dev / md5 / dev / md_d6p1 / dev / md_d6p3

所以我的问题是: 什么与md_d6及其分区?

好吧,这似乎是一个mdadm错误,或者我错过了一个手动步骤。 发出这个命令后

  mdadm --examine --scan --config = mdadm.conf >> /etc/mdadm/mdadm.conf 

并重新启动它似乎raidarrays现在好了。 愚蠢的错误:)