Articles of mdadm

mdadm lvm和ext4 slowness – 如何加快速度?

我无法弄清楚为什么我会从我的mdadm,尤其是lvm分区中获得如此糟糕的时间。 我做了突袭: mdadm –create –verbose /dev/md0 –level=5 –chunk=1024 –raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 sda1[0] sdd1[3] sdc1[2] sdb1[1] 2930279424 blocks level 5, 1024k chunk, algorithm 2 [4/4] [UUUU] 然后我创build了物理卷,卷组和逻辑卷,然后使用下面的命令将逻辑卷格式化为ext4: http : //busybox.net/~aldot/mkfs_stride.html mkfs.ext3 -b 4096 -E stride=256,stripe-width=768 /dev/datavg/blah 现在我很困惑,在mdadm之前,我已经把这些lvs运行得很快,但是现在我已经'优化'了所有的速度,比如: /dev/datavg/lv_audio: Timing buffered disk reads: […]

mdadm RAID 5arrays停止安装

我添加了一个2TB的驱动器到我的系统(而不是我的RAID 5arrays,只是一个额外的单个驱动器),现在arrays将不会挂载 – 我得到一个“挂载:/ dev / md0已挂载或/媒体/ “错误。 一切都很好,工作了两年。 我所做的只是成功更新MB bios,附加2TB三星硬盘驱动器,使用gparted启动光盘以1MB偏移量格式化ext4,然后重新启动我的常规Ubuntu 9.10系统,此时arrays无法安装,我得到“mount:/ dev / md0已挂载或/ media /存储繁忙”错误。 mdadm说一切都还好: mdadm –detail / dev / md0 / dev / md0:版本:00.90创build时间:星期六八月2 16:39:27 Raid级别:raid5数组大小:2197715712(2095.91 GiB 2250.46 GB)使用开发大小:732571904(698.64 GiB 750.15 GB)Raid设备:4设备总数:4首选次要:0持久性:超级块持久性 Update Time : Sat Nov 6 08:17:54 2010 State : clean Active Devices : 4 Working Devices : 4 […]

Linux:使用数据从分区创build软件RAID 1

我有一个分区/ dev / sdb2格式化为fd,并挂载为/ var。 我需要使这个分区准备好袭击1(对于这个例子/ dev / md1)。 我仍然没有第二个HD,但是想要以HD的方式准备它,这只是一个插入和增加RAIDarrays的问题。 由于这个分区是我的/ var,我重新启动系统与一个活CD,并尝试使用以下命令创build: mdadm –create / dev / md1 –level = 1 –raid-disks = 2 / dev / sdc2缺失 它抱怨这是一个数组的一部分,但我接受和md1创build。 我使用: mdadm –examine –scan >> /mnt/sdc1/etc/mdadm.conf 将mdadm信息复制到/ hd。 另外,我改变fstab,使用/ dev / md1。 问题是,当我重新启动,由于物理和文件系统大小的差异,我得到一个错误。 完整的错误是: 文件系统大小(根据超级块是52428127块 该设备的物理尺寸是52428096块 超级块或分区表可能会损坏! 中止(Y)? 任何想法是什么导致这个? 之后,获取系统的唯一方法是再次重新启动cd,并在分区上运行: mdadm –zero-superblock / dev / sdc2 […]

Linux(FC14 / i386)是raid1完好后热安装? 如何修复?

我的旧版(FC11)安装已经达到EOL,我试图在其RAID1根文件系统上重新安装FC14。 我现在怀疑现在安装FS后没有完全查抄。 问题是如果这是怀疑是真的,如果是的话,如何解决它。 [root@atlas dev]# cat /proc/mdstat Personalities : [raid1] md127 : active raid1 sda[0] 732571648 blocks super external:/md0/0 [2/1] [U_] md0 : inactive sdb[1](S) sda[0](S) 4514 blocks super external:imsm unused devices: <none> [root@atlas dev]# md127似乎是md0的一些子容器,但是将sda [0]列为显式设备,但不包含sdb。 我假设我跑sda阅读这个,sdb已经失效。 麻烦的是,FS已经看到了相当的一些行动,所以这两个光盘不能被认为是同步的。 sdb必须被重build。 我有一个完整的备份,所以我愿意承担计算的风险。 请注意,文件系统是根设备。 (单用户模式?) 任何解释如何读取mdstat输出也是受欢迎的。 我的猜测是,我需要以某种方式从md0容器添加sdb到md127。 内核摘录: dracut: Starting plymouth daemon dracut: rd_NO_DM: removing DM RAID […]

mdadm使用512字节块构build旧版arrays

我正在尝试使用mdadm构build一个数组。 该数组有512字节(不是kibibyte)大小的条纹。 因为mdadm以kibibytes方式接受chunk的参数,而不是以字节为单位,所以我无法正确地build立这个数组。 mdadm –build -n2 -c512 -lraid0 /dev/md0 /dev/sdb /dev/sdc 构build块大小为512 KiB的arrays。 mdadm –build -n2 -c.5 -lraid0 /dev/md0 /dev/sdb /dev/sdc 返回一个错误。 有任何想法吗? 我通常只是手动重buildRAID。 但是这个是4TB大。 我可以重build它到一个LVM,但我希望避免这一点。 有任何想法吗?

在Ubuntu中从initramfs菜单重新组装Raid 10

我的RAID 10 – 用于/ – 我的Ubuntu的盒子失败了。 我更换了坏的磁盘,我试图从initramfs菜单重新组装raid。 我已经尝试启动降级的RAID并使用恢复启动选项 当我运行mdadm –assemble / dev / md1(devices)命令时,它告诉我第一个设备忙或不能访问。 但是我可以运行mdadm – 在有问题的设备上检查 有任何想法吗?

raid1磁盘更换后重build不完成

在我们的服务器之一,其中一个磁盘失败,无需担心这种情况一直发生,我们按照通常的程序replace坏的磁盘,但然后…“恐怖”,添加一个新的磁盘后,其中一个分区无法同步因为现在活动的“好”磁盘包含一些坏块,详细说它是“重build”: Number Major Minor RaidDevice State 0 8 3 0 active sync /dev/sda3 2 8 19 1 spare rebuilding /dev/sdb3 但是/ proc / mdstat的cat表明它已经完成了,但是没有被添加。 md2 : active raid1 sdb3[2] sda3[0] 1458830400 blocks [2/1] [U_] 我find了这个: 更换后RAID 1磁盘被标记为备用 这是现在唯一的/推荐的方式吗?,不可能强制重build忽略坏块,然后更换旧的磁盘? 我应该尝试与e2fsck? PS当然,一切都是备份的,但是在服务器上设置所有的服务可能是痛苦的。 非常感谢你提前。

mdadm raid5降级arrays有多less个真正独特的卷组排列?

我试图从Ubuntu 10.04升级到12.04后从我的RAID卷失败恢复。 我试着用5个基本卷的任意组合重新创build数组,其中一个replace为“丢失”,以确保数组被唤醒为降级。 接下来,在dd if=/dev/md1帮助下,我对每个版本的重新组装的raid的第一个256kB进行了备份以供检查。 令我惊讶的是,我看到5个不同版本的第一个256kB块,在5个磁盘集上可能有120个排列,甚至在4个磁盘集上排列了24个。 我假设4个磁盘集编号应该是正确的,因为1个卷必须设置为缺失,从此以后不应考虑。 这怎么会发生?

读取错误恢复mdadm + lvm + ext4分区

我的NAS中的一个磁盘失败了。 NAS正在运行Linux,并将mdadm + LVM技术用于其文件系统。 我对大部分内容都有备份,但是对于最后的更改没有备份,如果可能的话,我想从这个故障磁盘中恢复。 磁盘(一个“绿色驱动器”WD10EARS 1TB大小)抛出这种错误: Oct 3 12:00:41 kernel: [ 3625.620000] ata5.00: read unc at 9453282 Oct 3 12:00:41 kernel: [ 3625.620000] lba 9453282 start 9453280 end 1953511007 Oct 3 12:00:41 kernel: [ 3625.620000] sde5 auto_remap 0 Oct 3 12:00:41 kernel: [ 3625.630000] ata5.00: exception Emask 0x0 SAct 0x1 SErr 0x0 action 0x6 […]

最好的冗余方式来设置多个不同大小的驱动器

我有一个Linux服务器(目前运行Ubuntu 12.04服务器),我需要设置多个不同大小的硬盘驱动器,主要用于媒体/备份目的。 大小是: 1x2TB 1x1TB 2x500GB 2x3TB 我可能会在稍后的date添加更多。 过去我已经安装了好几台服务器,只在两块硬盘上运行软件RAID1,效果很好,但总是一样的大小,无法扩展,所以RAID1是正确的select。 在这里,我一直在读LVM和/或LVM2,从我可以告诉我有很多select,其中一些我可以想到的是: 将RAID1置于最低级别,将2TB驱动器分区为1x1TB,2x500GB分区 将2x3TB镜像在一起/ dev / md0 在2TB驱动器/ dev / md1上镜像1TB和1TB分区 在2TB驱动器/ dev / md2上镜像500GB和500GB分区 在2TB驱动器/ dev / md3上镜像500GB和500GB分区 那么我可以: 使用LVM将/ dev / md *合并到一个卷中,并将文件系统放在上面 格式并分别安装它们,然后使用unionfs-fuse来呈现它们的单个“视图” LVM(2?)将启用了镜像的所有驱动器分组(不确定如何执行此操作) LVM将较小的组合放在一起,并将RAID1放在最上面(我已经看到人们说LVM上的mdadm不被build议,但没有理由) RAID0是较小的,并将RAID1放在最上面 对于文件系统,我可能会默认使用ext4,除非有其他原因。 任何人都可以给我一些想法或指针在正确的方向吗? 谢谢!