Articles of mdadm

Linux软件RAID1:如何在(物理)删除/ dev / sda后启动? (LVM,mdadm,Grub2)

用Debian 6.0 / squeeze设置的服务器。 在挤压安装过程中,我将两个500GB SATA磁盘(/ dev / sda和/ dev / sdb)configuration为RAID1(使用mdadmpipe理)。 RAID保留500 GB的LVM卷组(vg0)。 在卷组中,有一个逻辑卷(lv0)。 vg0-lv0使用extfs3格式化,并作为根分区挂载(没有专用/启动分区)。 系统使用GRUB2启动。 在正常使用情况下,系统启动正常。 另外,当我尝试并closures第二个SATA驱动器(/ dev / sdb)后,系统没有问题,重新连接驱动器后,我能够 – 将/ dev / sdb1添加到RAIDarrays。 但是:删除第一个SATA驱动器(/ dev / sda)之后,系统将不再启动! 一个GRUB欢迎消息显示一秒钟,然后系统重新启动。 我试图在/ dev / sdb(“grub-install / dev / sdb”)上手动安装GRUB2,但这并没有帮助。 当第一个磁盘被移除时,显然挤压不能设置GRUB2从第二个磁盘启动,这似乎是运行这种软件RAID1时相当重要的特性,不是吗? 目前,我失去了这是GRUB2,LVM还是RAID设置的问题。 任何提示?

RAID重build似乎已经停止

我的服务器正在运行带有两个磁盘的RAID 1arrays。 其中一个磁盘今天失败,被取代。 我已经将GPT分区复制到新的硬盘(sda): sgdisk -R /dev/sda /dev/sdb 并改变了UDID sgdisk -G /dev/sda 然后我把这两个分区添加到RAIDarrays: mdadm /dev/md4 -a /dev/sda4 和 mdadm /dev/md5 -a /dev/sda5 /dev/md4被正确重build,但不是/dev/md5 。 运行这些命令后不久运行cat /proc/mdstat ,显示如下: Personalities : [raid1] md5 : active raid1 sda5[2] sdb5[1] 2820667711 blocks super 1.2 [2/1] [_U] [>………………..] recovery = 0.0% (2109952/2820667711) finish=423.0min speed=111050K/sec md4 : active raid1 sda4[2] sdb4[0] […]

如何创build一个没有备件的软件raid5arrays

我正在尝试使用mdadm创build一个软件raid5数组: $ linux # mdadm –create –verbose /dev/md0 –level=5 –raid-devices=4 –spare-devices=0 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 mdadm: layout defaults to left-symmetric mdadm: chunk size defaults to 64K mdadm: array /dev/md0 started. 但是在检查/ proc / mdstat时 Personalities : [raid6] [raid5] [raid4] md0 : active raid5 sdd1[4] sdc1[2] sdb1[1] sda1[0] 2930279808 blocks level 5, 64k chunk, algorithm 2 […]

Linux软件RAID无法为一个RAID1arrays包含一个设备

当我重启我的系统时,我的四个Linux软件RAIDarrays中的一个丢弃了它的两个设备之一。 其他三个arrays工作正常。 我在内核版本2.6.32-5-amd64上运行RAID1。 每次我重新启动,/ dev / md2只有一个设备。 我可以通过说$ sudo mdadm / dev / md2 –add / dev / sdc1来手动添加设备。 这工作正常,并且mdadm确认设备已被重新添加,如下所示: mdadm: re-added /dev/sdc1 在添加设备和允许数组时间重新同步之后,这就是$ cat / proc / mdstat的输出: Personalities : [raid1] md3 : active raid1 sda4[0] sdb4[1] 244186840 blocks super 1.2 [2/2] [UU] md2 : active raid1 sdc1[0] sdd1[1] 732574464 blocks [2/2] [UU] md1 […]

mdadm:哪个磁盘正在重build?

我注意到我的软件RAID1性能下降了,并且想知道arrays中的哪个磁盘正在被重build/重新同步,因为它们都显示为正在运行。 我希望有人能够指出这一点,如果甚至有可能找出软件RAID1中的哪个磁盘被降级并正在被重build。 # cat /proc/mdstat md1 : active raid1 sda2[0] sdb2[1] 955789176 blocks super 1.0 [2/2] [UU] [==============>……] resync = 72.2% (690357504/955789176) finish=4025.9min speed=1098K/sec md0 : active raid1 sda1[0] sdb1[1] 20970424 blocks super 1.0 [2/2] [UU] unused devices: <none> # mdadm –detail /dev/md1 /dev/md1: Version : 1.0 Creation Time : Fri Dec 7 04:55:25 2012 […]

LVM2与MDADM性能

我在很多方面都使用过MDADM + LVM2。 MDADM同时用于RAID0和RAID1arrays,而LVM2用于MDADM之上的逻辑卷。 最近,我发现LVM2可以用于MDADM(因此,减去一层,因此减less了开销),用于镜像和剥离。 然而,有些人声称LVM2镜像arrays的读取性能不如在MDADM(RAID1)之上的LVM2(线性)那么快,因为LVM2一次不能读取2+设备,而是使用第二个或更高设备第一个设备故障的情况。 MDADM一次从2个设备读取(即使在镜像模式下)。 谁能证实呢?

我可以创build一个“软”RAID1arrays而不需要核对数据吗?

我刚刚购买了两个1.5TB磁盘,目的是创build一个1.5TB的RAID1arrays。 由于我缺乏智慧(而且计算机内部空间不足 – 已经有6个磁盘),所以我插入了一个,格式化为EXT4,然后将数据全部从我正在删除的驱动器中复制。 现在我想用双磁盘创build一个mdadm RAID1arrays。 我认为这是可能的。 可能涉及卸载和dd内容,但我敢肯定,我看到这个地方之前… 但是我找不到上次设置mdadm时使用的教程,所以我很害怕。 我不想破坏800g的数据。

软件RAID10以后发展

我想知道在Linux上用软件创buildRAID10的最佳做法是什么,以后可以通过添加磁盘或扩展下面的卷进行增长。 我在亚马逊上使用EBS,我想创build8x1GB RAID10,但能够根据需要稍后增长,如果可能,最小化任何数据迁移(当然,宕机)。 如果任何MDADM / LVM是最好的组合,是否有任何性能或稳定性权衡,我需要知道的?

如何使用mdadm调整RAID1arrays的大小?

我已经运行Ubuntu 11.04(内核2.6.38-11)。 我用2x500GB驱动器replace了2x160GB。 它们被configuration为RAID1。 分区表显示正确的大小。 这是sfdisk: # sfdisk -d /dev/sdb # partition table of /dev/sdb unit: sectors /dev/sdb1 : start= 63, size= 192717, Id=fd, bootable /dev/sdb2 : start= 192780, size= 7807590, Id=fd /dev/sdb3 : start= 8000370, size=968767695, Id=fd /dev/sdb4 : start= 0, size= 0, Id= 0 和fdisk: # fdisk -l /dev/sdb Disk /dev/sdb: 500.1 GB, […]

apt-get update mdadm可怕的警告

刚刚在我的一台专用服务器上运行apt-get更新,留下了一个相当可怕的警告: Processing triggers for initramfs-tools … update-initramfs: Generating /boot/initrd.img-2.6.26-2-686-bigmem W: mdadm: the array /dev/md/1 with UUID c622dd79:496607cf:c230666b:5103eba0 W: mdadm: is currently active, but it is not listed in mdadm.conf. if W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE! W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare W: mdadm: it […]