Articles of mdadm

如何将mdadm RAID5增长为降级状态?

mdadm – v3.2.5 – 2012年5月18日 目前有: Version : 1.2 Creation Time : Tue Jun 25 19:03:31 2013 Raid Level : raid5 Array Size : 2930135040 (2794.39 GiB 3000.46 GB) Used Dev Size : 2930135040 (2794.39 GiB 3000.46 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Wed […]

Linux – dmraid(或mdadm) – 重buildRAID 10

前一段时间,我有一个raid10configuration废弃在我身上,现在只是试图抢救arrays,所以我可以重build,继续我的生活。 基本上每个子集中的驱动都失败了,这意味着(理论上)我可以恢复。 如果我在同一个子集中丢失了两个磁盘,那么恢复是不可能的。 我删除了两个坏的驱动器,并添加了两个新的驱动器到系统。 对于RAID控制卡,系统使用的是一个承诺fasttrak 4310.当我启动系统时,我跳进了RAID控制卡bios,注意到所有4个驱动器被发现,但是两个新的(显然)没有被分配到RAID组态。 不幸的是,我无法删除两个旧驱动器,并通过BIOS添加两个新的驱动器从configuration。 Promise确实提供了WebPAM安装程序,但它很古老(6岁),不会安装在CentOS 6.4上。 所以我做了一些挖掘并碰到“dmraid”。 dmraid看起来很有前途,因为它是基于我所了解的有关我的RAIDconfiguration的信息: root@service1 ~ # -> dmraid -s -s ERROR: pdc: wrong # of devices in RAID set "pdc_fbdbhaai-0" [1/2] on /dev/sdb ERROR: pdc: wrong # of devices in RAID set "pdc_fbdbhaai-1" [1/2] on /dev/sde ERROR: pdc: wrong # of devices in RAID set "pdc_fbdbhaai-0" [1/2] […]

Linux中使用md raid(IBM x3620)进行M1015直通和热插拔

我正在为一个学生社区设置一个小型但有希望的耐用服务器,硬件是一个带有内置M1015 RAID卡的IBM x3620 M3。 为了保证设置的可靠性,并尽可能地避免厂商locking,我想通过通用Linux md raid选项来使用软件RAID,或者甚至直接通过btrfs来使用。 这是棘手的地方。 M1015上的IBM红皮书没有明确指出完整的“传递”选项(即所谓的JBOD?)是否可用。 我已经启动了服务器,并试图在一个硬盘上安装Debian, 而不需要在控制器的设置中设置任何RAID,所以很明显,某种“传递”正在进行。 我的问题是这样的: 控制器是否在磁盘上留下了某种元数据,迫使我的RAID RAIDarrays总是从这个特定的控制器上运行,或者是一个完全通用的arrays,我可以插入“原始”SATA端口并运行好? 即使我尽可能地“绕过”硬件控制器,我是否能够热插拔和重buildarrays? 我做错了吗? 我应该向控制器闪烁一个不同的固件,在Serverfault本身上提到的可能性? 为什么? (如何:Linux上的M1015软件突袭) 谢谢!

mdadm常量磁盘I / O

我有一个有固定磁盘I / O的mdadm数组。 我知道这是数组BC我的服务器显示哪些特定的驱动器有活动。 根据iotop有一个3-6 Mbps的恒定磁盘写入,但是,列表中没有相应的进程。 什么可能导致这个? 它已经build成,所以它不是从计算平价或任何东西。

如何将分区表添加到现有的EXT4文件系统

我在8x3TB磁盘(18TB)上有软件RAID6,有文件系统/ dev / md1,但EXT4不能大于16TB,所以有2TB的空闲空间。 我想用这个空间。 我的第一个想法是将文件系统从磁盘的起始位置移开一点点,并使分区表和合适的分区描述我的数据。 但也许有一些聪明的黑客来回顾这些2TB,并且可以很容易地添加另一个磁盘到这个arrays。 复制这些数据,分区和恢复数据不是一个解决scheme。

从旧系统重新组装RAID 1arrays

我最近将操作系统从RHEL 5升级到了6.为此,我在新磁盘上安装了新的操作系统,并且希望安装旧磁盘。 旧磁盘在新系统中被列为/ dev / sdc和sdd,它们使用LVM使用RHEL安装GUI中的默认设置创build为RAID 1arrays。 我设法安装旧磁盘并在过去的两周内使用它们,但在重新启动后,它们没有重新安装,我无法弄清楚如何让它们恢复正常。 我没有理由相信磁盘有什么问题。 (我正在做磁盘的副本,我有一个较旧的备份,但我希望我不必使用其中任何一个…) 使用fdisk -l: # fdisk -l Disk /dev/sdb: 300.1 GB, 300069052416 bytes 255 heads, 63 sectors/track, 36481 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: […]

启动到活cd后如何重buildRaidarrays?

问题:修复内核升级给我一个无法启动的系统(不要问我是如何使我的备份内核无法启动的)启动和root在mdadm raid 1arrays上(分别为元数据1.0 / 1.2)。 通过Live CD启动不会检测到我的RAIDarrays,我不能修复我的系统,而不用手工组装,我不记得我使用的所有参数,坦率地说这是一个痛苦。 我想要最简单的方法来自动检测和重build我的RAIDarrays,以便我可以挂载它们。

mdadm,RAID5标记为空闲的所有磁盘都不会启动

带有mdadm和4个磁盘的RAID5configuration 一些事件发生后,例如其中一个驱动器丢失了,不得不重新启动服务器并重buildarrays,我的raid处于一个有趣的情况 cat / proc / mdstat Personalities : md0 : inactive sdb[1](S) sda[4](S) sdd[3](S) sdc[2](S) 7814057984 blocks unused devices: <none> mdadm -E / dev / sd [ae] | grep事件 Events : 946860 Events : 946860 Events : 946848 Events : 946860 mdadm -D / dev / md0 mdadm: md device /dev/md0 does not appear […]

当剩余驱动器有坏扇区时,mdadm RAID 6重build

我正在build立一个系统来存储一些重要的数据。 我将使用4个1TB驱动器通过mdadm创buildRAID6。 我做了很多的阅读,找不到我的问题的确切答案: 在4驱动器RAID 6设置一个驱动器死亡(让说1号)。 我将更换死盘,并发出重build命令。 为了说明起见,驱动器nr 4有一个坏扇区,位于15000处。当mdadm到达时,它将如何处理? 它会试图读坏的部门,最终放弃和打破整个arrays? 它是否会通过奇偶校验重新计算来自不同驱动器(2和3)的不可读数据,并重buildarrays时没有任何问题? 有没有一个明确的答案呢? 当2个驱动器出现故障(比如说1和2),其余的驱动器(nr 4)中有一个会出现坏块时,会出现什么情况?

在md RAID6重build期间,一个磁盘比其他磁盘访问更多

我正在重build一个8驱动器的RAID6驱动器(使用'md'Linux软件RAID),并且已经注意到它似乎没有这么快,可能是因为其中一个驱动器被发送两次其他许多IOPS: Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn sda 155.00 77252.00 0.00 77252 0 sdb 153.00 76736.00 0.00 76736 0 sdc 154.00 77248.00 0.00 77248 0 sde 154.00 77248.00 0.00 77248 0 sdf 164.00 77288.00 0.00 77288 0 sdd 154.00 77248.00 0.00 77248 0 sdg 287.00 83160.00 0.00 83160 0 sdh 146.00 0.00 74240.00 0 74240 […]