好的张贴在这里希望有人可以帮助..
所以我build立了一个4×1.5TB的RAID6arrays。 得到它和一切。 它工作正常。 我复制了另外两个值得Data的驱动器,然后将这两个驱动器放到数组中。 有几个打嗝,但否则它运作良好,并采取永远。
我今天复制了最后一批数据,然后按照相同的步骤把它放到数组中,然后做了“等等等等”的命令,以保持对重塑的持续关注,因为为什么不这样做。
….这是很好,也许10-11%,我注意到它..不再更新。
这发生了正确的,因为我正在通过networking从arrays文件系统看东西,然后突然locking。
我以为也许有一些事情对watch命令很敏感,所以我把它杀死了,只是从cmdline做了cat /proc/mdstat 。
什么都没有 没有输出或任何东西,光标沿着一条线但没有其他事情发生。
如果我尝试一个mdadm --detail /dev/md0 ,同样的事情。 什么都没发生。
如果我尝试在数组的挂载目录里面,我得到了根目录,但是当我试图深入挖掘文件夹时,ls和前两个命令做同样的事情,并locking,除了我甚至不能ctrl-c出来了。
我认为是造成这个问题,是我显示像状态D的Smbd进程,这是必须从我正在观看video文件时,剩下来,它locking..当然我不能杀了他们,系统将不会让我。
我当然现在非常偏执,总觉得事情完全是梨形的,我会失去一切,我不想重启,因为我不知道这是否会打破任何东西。
编辑:好..如此:
我重新启动(我实际上已经closures机器,它不会死。)
我发现这个: http : //www.linuxquestions.org/questions/linux-server-73/raid-5-mdadm-grow-interrupted-what-to-do-next-602671/
我试过了,没有运气。 我明白了
mdadm: superblock on /dev/sdb1 doesn't match others - assembly aborted
当我在任何驱动器上执行mdadm -E时,我会得到:
/dev/sdb1: Magic : a92b4efc Version : 00.91.00 UUID : 3c455e64:c4d0d230:c109596b:d7e29b7e Creation Time : Mon Nov 23 18:59:31 2009 Raid Level : raid6 Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB) Array Size : 7325679680 (6986.31 GiB 7501.50 GB) Raid Devices : 7 Total Devices : 7 Preferred Minor : 0 Reshape pos'n : 967965760 (923.12 GiB 991.20 GB) Delta Devices : 1 (6->7) Update Time : Tue Dec 1 20:48:48 2009 State : active Active Devices : 6 Working Devices : 6 Failed Devices : 1 Spare Devices : 0 Checksum : a4096474 - correct Events : 40943 Chunk Size : 64K Number Major Minor RaidDevice State this 5 8 17 5 active sync /dev/sdb1 0 0 8 49 0 active sync /dev/sdd1 1 1 8 65 1 active sync /dev/sde1 2 2 8 81 2 active sync /dev/sdf1 3 3 8 97 3 active sync /dev/sdg1 4 4 8 1 4 active sync /dev/sda1 5 5 8 17 5 active sync /dev/sdb1 6 6 0 0 6 faulty removed
这个“错误的删除”是/ dev / sdc1,这是我刚刚添加的驱动器,并试图通过增长数组。
然后我尝试了我在这里find的: http : //ubuntuforums.org/showpost.php?p=2526794&postcount=2
sudo mdadm --create /dev/md0 --assume-clean --level=6 --raid-devices=7 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sda1 /dev/sdb1 missing
这返回:
mdadm: /dev/sdd1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sde1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdf1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdg1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sda1 appears to contain an ext2fs file system size=1565523968K mtime=Mon Nov 30 23:59:03 2009 mdadm: /dev/sda1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdb1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 Continue creating array? y mdadm: array /dev/md0 started.
cat /proc/mdstat
得到:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid6 sdb1[5] sda1[4] sdg1[3] sdf1[2] sde1[1] sdd1[0] 7325679680 blocks level 6, 64k chunk, algorithm 2 [7/6] [UUUUUU_]
和
sudo lvdisplay raid
得到:
--- Logical volume --- LV Name /dev/raid/raid VG Name raid LV UUID R1fKIQ-dS9P-iOuN-BVGW-98Wo-Cc2w-rJ5wfp LV Write Access read/write LV Status available # open 0 LV Size 5.46 TB Current LE 5589 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:0
万岁! 万物精彩! 不。
sudo mount /dev/raid/raid /blah
给我:
mount: wrong fs type, bad option, bad superblock on /dev/mapper/raid-raid, missing codepage or helper program, or other error In some cases useful info is found in syslog - try dmesg | tail or so
如果我有头发,我会拉出来。 帮帮我。 我只是假设不重新下载6TB的东西:P
第一步:不要做任何事情。 第二步:通过电子邮件发送linux-raid邮件列表。
如果重塑已经变成梨形,NeilB(软件RAID维护者)会尽可能地帮助他。
哪个文件系统被格式化? 你有没有尝试设备上的fsck -Vr来查看它说的是什么?
如果不是6TB,我build议使用dd和gzip制作备份映像,但我怀疑你有外部存储来做到这一点。
祝你好运。