Articles of mdadm

软RAID 6恢复第二个磁盘故障

我在托pipe系统中发生磁盘故障,并更换了故障驱动器。 在恢复期间,发生了另一个驱动器上的磁盘错误。 当发生原始错误时: md2 : active raid6 sdf3[5](F) sdd3[3] sdg3[6] sdc3[2] sdb3[7] sde3[4] sdd3[3] sda3[0] 104849920 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U] 修理后添加驱动器: root@rescue ~ # mdadm /dev/md2 -a /dev/sdf3 mdadm: added /dev/sdf3 root@rescue ~ # cat /proc/mdstat Personalities : [raid1] [raid6] [raid5] [raid4] md2 : active raid6 sdf3[7] sda3[0] […]

重buildraid5arrays

我inheritance了一台使用RAID 5arrays运行Debian的机器。 我安装了一堆操作系统推荐的更新(1700左右),然后重新启动后,RAIDarrays没有安装。 设备/ dev / md0现在不存在,我不知道为什么。 /etc/mdadm/mdadm.conf包含: DEVICE partitions ARRAY /dev/md0 level=raid5 num-devices=3 UUID=138b0c65:20644731:39e394c4:192c7227 我试着做mdadm –create –verbose / dev / md0 –level = 5 –raid-devices = 3 / dev / sda1 / dev / sdb1 / dev / sdc1。 这使设备md0,但它被列为“降级”,列表中的最后一个驱动器由于某种原因被视为“备用”。 尽pipe我不能确定,但​​我强烈怀疑它是涉及RAID-5arrays的sdb,sdc和sdd 我尝试了所有6种可能的设备sorting,但最后一个总是会出现备用。 我也尝试过–spare-devices = 0 –force,它成功地将所有三个驱动器以“干净”的状态进入arrays,但是我无法真正地挂载设备md0。 当我在/ dev / md0上运行“file -s”时,我得到了GLS_BINARY_LSB_FIRST,这似乎没有帮助。 我没有理由相信任何设备是错误的; 所有这些似乎都是源于最近的升级。 我怎样才能恢复旧的RAID […]

MDADM无法连接到Ubuntu 11.10上的EBS驱动器

我一直在使用一个raid.sh脚本[1]已经有一年多的时间了,从来没有给我带来麻烦。 我最近开始从AWS上的Ubuntu 10.04机器迁移到Ubuntu 11.10。 我将raid.sh脚本从旧的sdF样式驱动器名称更新为xvdF。 既然这样做,当连接我的4个EBS驱动器时,当使用全新的驱动器时,mdadm在我的一些驱动器(比如1中的4)上出现“设备正忙”的错误,而在尝试使用卷创build时,4个驱动器中的4个从快照。 我也附上下面的错误[2]。 试了这个之后,设备显示为“忙”,当我正确地确定所有的东西都是通过mdadm卸载和停止的,并且使用AWS web控制台分离音量时,驱动器会被卡住,有时甚至会说“忙” 。 任何情况下将不胜感激,谢谢! [1] #mdadm == Raiding software #xfsprogs == XFS filesystem creator/manager sudo apt-get install -y mdadm xfsprogs; sudo mdadm –create /dev/md0 –level 0 –chunk=256 –metadata=1.1 –raid-devices=4 /dev/xvdf /dev/xvdg /dev/xvdh /dev/xvdi; echo DEVICE /dev/xvdf /dev/xvdg /dev/xvdh /dev/xvdi | sudo tee /etc/mdadm/mdadm.conf; sudo mdadm –detail –scan | […]

LVM /设备映射器映射错误的设备

我在由mdadm创build的raid1上运行LVM设置。 md2基于sda6(major:minor 8:6)和sdb6(8:22)。 md2是分区9:2。 md2顶部的VG有4个LV,var,home,usr,tmp。 首先问题:引导时,似乎设备映射程序为映射采取了错误的分区! 开机后立即信息就像 ~# dmsetup table systemlvm-home: 0 4194304 linear 8:22 384 systemlvm-home: 4194304 16777216 linear 8:22 69206400 systemlvm-home: 20971520 8388608 linear 8:22 119538048 systemlvm-home: 29360128 6291456 linear 8:22 243270016 systemlvm-tmp: 0 2097152 linear 8:22 41943424 systemlvm-usr: 0 10485760 linear 8:22 20971904 systemlvm-var: 0 10485760 linear 8:22 10486144 systemlvm-var: 10485760 6291456 […]

mdadm – 无法启动RAID5arrays

电源故障后,我的RAIDarrays拒绝启动。 当我开机时,我必须 sudo mdadm –assemble –force /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 让mdadm注意到数组。 这里是细节(我强制组装后)。 sudo mdadm –misc –detail / dev / md0: /dev/md0: Version : 00.90 Creation Time : Sun Apr 25 01:39:25 2010 Raid Level : raid5 Used Dev Size : 1465135872 (1397.26 GiB 1500.30 GB) Raid Devices : 6 Total Devices : […]

重新组装RAID 10arrays而不会丢失数据

我有一个由4个iSCSI设备创build的RAID 10arrays。 今天早上我暂时失去了连接到这些驱动器中的2个。 mdadm把它们从arrays中取出足够长。 不幸的是,这是第三和第四的驱动器,给我留下了一个无法使用的arrays。 它被自动停用。 我知道这些iSCSI驱动器上的数据是完整的,但我无法弄清楚如何使它们恢复到活动状态。 我已经尝试重新启动服务器,但它只是提出了与2备用非活动模式的arrays。 我在网上发现了一个build议 – 用–assume-clean选项再次创build数组,所以我的数据不会丢失。 当我这样做,它说,所有4驱动器出现“是一个RAIDarrays的一部分”,但其中3个也说“分区表存在”和“将失去或无意义后创buildarrays”。 如果我允许它继续,那么丢失的分区表是指丢失的数据,还是能够挽救数据?

升级到SLES11 SP1之后 – 在软件RAID5之上的LVM不再工作了

在我运行OpenSuSE11.1一段时间的系统上,我执行了全新的SLES11 SP1安装。 系统使用了一个软件RAID5系统,在这个系统的顶部安装了一个大约2.5TB大小的单个分区的LVM,用于挂载/数据。 问题是SLES11.1不能识别软件RAID,因此我无法安装LVM。 这是vgdisplay和pvdisplay的输出: $ vgdisplay — Volume group — VG Name vg001 System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 2 VG Access read/write VG Status resizable MAX LV 0 Cur LV 1 Open LV 0 Max PV 0 Cur PV 1 Act PV 1 VG Size 2.73 TB PE Size […]

文件系统(SELinux)的重新标记失败

在编译策略模块并重新编译我的核心软件包(Gentoo 32bit)后,我想重新标记文件系统(通过rlpkg -a -r )和软件包,但是我得到了这些错误消息: 重新标记文件系统types:btrfs ext2 ext3 ext4 jfs xfs / usr / sbin / setfiles set context / – > system_u:object_r:root_t失败:'Operation not supported' / usr / sbin / setfiles set context / boot-> system_u:object_r:boot_t失败:'Operation not supported' / usr / sbin / setfiles set context / home-> system_u:object_r:home_root_t失败:'Operation not supported' / usr / sbin […]

使用驱动器之前必须部分探测?

这是一个后续问题, 无法在Debian 5.0上安装/ dev / sdc1,特殊设备/ dev / sdc1不存在 基本上,我在一台机器上安装了6个SATA硬盘驱动器,我试图用它们来创build一个RAID6arrays。 当我尝试运行mdadm命令来创build一个raidarrays时,我看到诸如“mdadm:super1.x”之类的消息无法打开/ dev / sdf1:没有这样的设备或地址,这是通过做partprobe /dev/sdf ,然后重新运行mdadm命令。 问题是我必须在每次重新启动后运行partprobe,而从经验来看,我认为这是不正常的行为 – 在我没有其他的Linux机器可以使用它之前,我不得不参与探测设备。 有些事情一定是出了问题,但是我要如何解决这个问题呢? 这可能是由硬件问题引起的? 编辑:额外的说明 – 之前,我似乎只有一个驱动器的问题,但现在我有3驱动器。

/ dev / md0上的DegradedArray事件实际上没有RAID

由于我从Ubuntu LTS 10升级到LTS 12,我得到如下错误消息: N 60 mdadm monitoring Mon Sep 3 06:38 31/1022 DegradedArray event on /dev/md2:Ubuntu-1004-lucid-64-minimal N 61 mdadm monitoring Mon Sep 3 06:38 31/1022 DegradedArray event on /dev/md0:Ubuntu-1004-lucid-64-minimal N 62 mdadm monitoring Mon Sep 3 06:38 31/1022 DegradedArray event on /dev/md1:Ubuntu-1004-lucid-64-minimal 我们没有RAID设置,只有一个硬盘。 想法?