Articles of mdadm

通过cron监控md数组不工作

我试图让我的基于Fedora15的服务器通过邮件从mdadm发送任何错误。 我在网上find了这个代码片段,并把它放在我的crontab( crontab -e )中: 0,20,40 * * * * mdadm –monitor -1 -m [email protected] -scan 什么都没发生。 在terminal上手动运行时,也不会收到邮件。 我猜测,我需要改变一些设置,以安装我的香草Fedora安装电子邮件发送。 我应该从哪里开始? 谢谢!

Linux软件突袭健壮性

我有一个4磁盘5TB raid5安装程序,其中一个磁盘显示下降的迹象。 它正在报告媒体错误,并从dmesg我可以看到,几个读取错误得到纠正。 smartctl确实报告“通知”,但至今没有恐慌。 由于新磁盘相当昂贵的时刻,我开始思考如何强大的Linux MDC层。 我将不胜感激,如果有人可以阐明如何md实际上处理磁盘错误。 例如,md是如何处理写入和读取错误的 – 磁盘从数组中被拒绝是什么(真的)。 我还看到最近md得到了映射坏块的支持。 这是否意味着我读过的错误将被映射出来,如果我运行kernel> 3.1或者md仍然尝试“在它们上工作”使它们可用。

奇怪的mdadm行为 – 无法创build时,md127出现与“设备或资源忙”在新创build的部分归零分区

问题: # ls /dev/md* /dev/md0 /dev/md1 # dd if=/dev/zero of=/dev/sdb3 bs=1M count=1 # dd if=/dev/zero of=/dev/sdd3 bs=1M count=1 # mdadm –zero-superblock /dev/sdb3 # mdadm –zero-superblock /dev/sdd3 # mdadm –create -l 1 -n 2 /dev/md2 /dev/sdb3 /dev/sdd3 mdadm: cannot open /dev/sdb3: Device or resource busy # ls /dev/md* /dev/md0 /dev/md1 /dev/md127 /dev/md2 # mdadm -D /dev/md127 […]

从失败和可能部分覆盖的mdadm raid1恢复数据

我有一个失败的硬盘(我们称之为sda ),其中包含1.5 TB的分区(我们称之为sda3 )。 还有另一个磁盘( sdb ),它也有一个1.5 TB的分区( sdb1 )。 两者都是使用元数据版本1.2的mdadm 1级RAID的一部分。 在这个RAID分区(我们称之为id md5 )里面有一个LUKSencryption容器(我们称之为md5_uncrypted )。 这个容器应该包含一个ext4分区。 在2012年8月10 sdb1某个时间,我以某种方式重新启动了RAIDarrays,但是sdb1丢失,甚至没有注意到这一点。 当我想在昨天(三个月后)更换RAID时,我开始从sdb1复制数据,直到意识到它已经过期。 所以我看了一下老sda3 。 错误的是,我运行mdadm –create而不是mdadm –assemble重新启动md5只有sda3可用。 因此,我忽略了所有警告,并让mdadm –create继续。 cryptsetup不喜欢新的RAID的内容。 如果使用相同的元数据版本,我实际上并不认为mdadm –create会损坏数据? 那么,显然是这样。 我比较了sda3和sdb1的前20 MB,并注意到它们的起始大小约为8 MB。 所以我复制了第一个8 MB的sdb1到sda3 (我有一个旧的前20 MB sda3备份),并试图组装md5 (只有一个驱动器, sda3 )。 不幸的是,这给了我一个错误: failed to add /dev/sdb1: Invalid argument 我也尝试过使用刚创buildmdadm –create上的sdb1的LUKS头文件mdadm –create d sda3 ,这个cryptsetup幸运(当然),但是它包含了垃圾。 […]

Fedora,fsck启动失败

在启动过程中,我在服务器中遇到问题。 这是我的实际configuration: 320GB each. Raid1 -> /dev/md127. Working. /dev/sda /dev/sdc 1000GB each. Raid1 -> Use to be /dev/md126, now it is /dev/md1. AFAIK, it works properly /dev/sdb /dev/sdd 2000GB -> Started to show some bad-functioning symptons. Now is disconnected /dev/sde 这是我得到的实际错误: fsck.ext4: No such file or directory while trying to open /dev/md126 /dev/md126: The superblock […]

系统不会从降级的RAID6启动

我有一个3分区的Debian Wheezy作为RAID6。 MD0用于Root和OS,MD1用于SWAP,MD2用于文件。 在将文件复制到MD2时,系统报告内核崩溃并暂停。 我已经closures了困难的方式。 当我启动系统时,我收到消息: md0: cannot start dirty degraded array md0: failed to run raid set failed to run_array md0 inpu/output error … md0 is already in use gave up waiting for root device common problems… alert! dev/disk/by-uuid/eb8r….. does not exist. dropping to a shell! cant access tty job control turned off ((initframs) […]

S / W RAID6和4k扇区格式 – 慢速重新同步

我正在寻找为什么Linux软件RAID-6重新同步比我预期的要慢得多的原因。 我已经使用了6个WDC WD40EFRX硬盘(4k物理扇区)来创buildRAID-6arrays。 $ sudo mdadm -v -C /dev/md6 -l6 -e1 -n6 /dev/sd[af] 当重新同步过程开始时,我发现它意想不到地慢。 Personalities : [raid1] [raid6] [raid5] [raid4] md6 : active raid6 sdf[5] sde[4] sdd[3] sdc[2] sdb[1] sda[0] 15627548672 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU] [========>…………] resync = 44.6% (1743624744/3906887168) finish=1056.3min speed=34129K/sec CPU负载远不是100%: $ top PID USER PR […]

最近安装的RAID在分区上已经降级

我build立了一个新的两个磁盘RAID1,在mdstat中看起来很健康。 几个小时后,我就看到了当我运行cat /proc/mdstat 。 Personalities : [raid1] md1 : active (auto-read-only) raid1 sda2[0] sdb2[1] 4982784 blocks super 1.2 [2/2] [UU] resync=PENDING md0 : active raid1 sda1[0] 483266560 blocks super 1.2 [2/1] [U_] bitmap: 4/4 pages [16KB], 65536KB chunk unused devices: <none> 我认为这是奇怪的, md0显示缺less一个sdb分区,但md1不是。 我不认为sdb失败了,因为它是新的,所以我怎样才能修复md0 ? 从系统日志中: $ dmesg | grep sdb [ 3.612217] sd 1:0:0:0: […]

md raid10:如何确保复制的数据存储在正确的位置?

在创build经典的镜像RAID时,通常在不同types的磁盘上find数据副本。 在这种情况下,您将使用不同系列和制造商的磁盘组合。 这样可以减less整个系列出现故障时丢失数据的风险。 让我们假设我想build立一个由两个制造商build立的四个磁盘基于MD的RAID 10。 我如何确保数据被复制到不同types的磁盘上? 我知道有可能指定near , far和offset ( 描述 )的布局。 这些布局指向正确的方向,但我不知道如何md“sorting”磁盘。 这可能会导致在相同types的磁盘上的副本。

在MDADM RAID内安装BTRFS Rootfs

在性能和稳定性方面是不是一个好主意? 我有4个相同大小的磁盘,我想使用btrfs来安装rootfs(opensuse),但是我需要交换和虚拟机存储。因此,我需要使用支持原始的文件系统,并且我认为lvm是最好的select.. 在这一点上,是否有可能结合lvm和btrfs? 接下来,将btrfs raid和lvm raid结合起来是个好主意,还是使用mdadm raid更好? 谢谢