Articles of mdadm

使用/ dev / disk / by-path创build使用UDEV的永久驱动器标签

我有一个新的BackBlaze Pod( BackBlaze Pod 2.0 )。 它有45个3TB驱动器,当我第一次设置它们时,它们被标记为/ dev / sda通过/ dev / sdz和/ dev / sdaa通过/ dev / sdas。 我使用mdadm来设置三个非常大的15个驱动器RAID6arrays。 但是,自从几个星期前的第一次设置以来,我有几个硬盘驱动器失败。 我已经取代了他们,但现在arrays抱怨,因为他们找不到丢失的驱动器。 当我列出磁盘… ls -l /dev/sd* 我看到 /dev/sda /dev/sdf /dev/sdk /dev/sdp 不再出现,现在有4个新的… /dev/sdau /dev/sdav /dev/sdaw /dev/sdax 我也只是发现我可以做到这一点… ls -l /dev/disk/by-path/ total 0 lrwxrwxrwx 1 root root 10 Sep 19 18:08 pci-0000:02:04.0-scsi-0:0:0:0 -> ../../sdau lrwxrwxrwx 1 […]

raid10在mdadm报告不正确的“使用开发大小”

我以前有一个raid5与mdadm使用四个2TB驱动器。 我最近拆解了raid并创build了一个带有6个2TB驱动器的raid10,但是mdadm -detail显示“Used Dev Size”仅为2TB(原来的一个磁盘raid5奇偶校验),而不是预期的6TB(新的12TB的一半)。 问:是否有2TB而不是6TB这个领域将成为一个问题? 即使可能没事,我也不喜欢看错。 我正在使用CentOS 6.3(2.6.32-279.9.1.el6.i686)和mdadm 3.2.3-9.el6.i686 我在反汇编raid5时将所有的超级块清零: sudo mdadm –zero-superblock /dev/sda1 创build数组: sudo mdadm -v –create /dev/md0 –level=raid10 –raid-devices=6 /dev/sd[af]1 mdadm的当前输出–detail sudo mdadm –detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Thu Sep 27 09:31:33 2012 Raid Level : raid10 Array Size : 5860535808 (5589.04 GiB 6001.19 GB) Used Dev […]

有3x3TB驱动器RAID5风险? 我应该考虑哪些替代scheme?

一个驱动器昨天从我的RAIDarrays中退出。 这看起来是因为一个糟糕的控制器,所以我把它切换出来,试图重新添加驱动器,但mdadm声称它不能这样做。 所以我zerod超级块,只是正常添加驱动器,并离开它resync。 当我今天早上检查arrays时,我根本无法安装它,现在显示为有两个驱动器丢失的CLEAN FAULTY。 这两个丢失的驱动器被列为备用和故障备用。 在这种情况下我能做些什么,或者是arrays没了? 更新 这些磁盘看起来很好 – 除了可能在磁盘上有足够的坏数据让mdadm恼火,并且从磁盘arrays中踢出磁盘。 我能够通过将磁盘标记为正在运行并强制assembly来重新创buildarrays,因此我只是确保所有备份都是最新的。 所以我可以改变这个问题:RAID5似乎是一个大磁盘(3x3TB)的问题。 我正在考虑更改镜像RAID-Zarrays,但是还有什么我应该考虑呢?

Shell脚本来监视RAID组件的完成

如何在调用以下命令之前暂停执行我的shell脚本,直到raid数组被组装完毕? 据我所知,这是一个asynchronous的进程,RAIDarrays的状态需要被轮询。 mdadm –create -l10 -n4 / dev / md0 / dev / xvdh *

mdadm mdadm:无法打开/ dev / sda1:设备或资源繁忙

我从一个单一的磁盘遇到麻烦突袭10 发出的命令是: mdadm –create /dev/md0 –level=10 –raid-devices=8 /dev/sd[abcdefgh]1 输出是: mdadm mdadm: cannot open /dev/sda1: Device or resource busy 我已经证实这与DM无关: ]# dmsetup status No devices found 文件系统是GPT,我用sgdisk –backup = table / dev / sda通过sgdisk –load-backup = table / dev / sdb通过sdh复制分区表 该表看起来像: Number Start End Size File system Name Flags 1 1049kB 525MB 524MB ext3 boot […]

更换raid1驱动器是一个更小的块。 该怎么办?

显然每次raid1分区的末尾应该总是留下一点空的空间。 但是,如果我们为时已晚,如果更换的RAID1驱动器略小于尚存驱动器,可以做些什么? 数组可以resize? 在这种情况下,hdparm显示: Model = ST31000524AS,FwRev = JC45,SerialNo = 9VPBMQJD CurCHS = 16383/16/63,CurSects = 16514064,LBA = yes,LBAsects = 1953525168 Model = ST1000DM003-1CH162,FwRev = CC44,SerialNo = S1D7LDD7 CurCHS = 16383/16/63,CurSects = 16514064,LBA = yes,LBAsects = 1953525168 但是由于逻辑扇区大小不同,fdisk将976760832块的旧驱动器和976760001的新驱动器分区。 有一个分区,格式为ext3。 另请参阅使用新的RAIDarrays交换出现故障的驱动器…但WD更改了块大小?

mdadm raid1,驱动器故障丢失了14天的数据?

我很困惑。 有一天晚上,我有一台服务器已经死亡。 我去重新启动它,发现它卡在“GRUB”引导屏幕上。 然后我注意到一个硬盘已经失败了。 我把一个新的硬盘驱动器,启动到救援模式,并重新安装gr </s>。 服务器启动后,我告诉mdadm重新同步新的驱动器,一切都很好。 直到我注意到,由于某种原因,驱动器的数据已经14天,4月26日。所以我不得不还原一个更新的备份,以使服务器是最新的。 不过,这让我担心,为什么会这样呢? 谢谢

擦除md0,md1,不能重新创build它们

我以前有一个可用的RAID 1arrays。 我想作为运行grub-install /dev/sdb和grub-install /dev/sdc我以某种方式擦除了md0和md1计算机。 我需要重新设置它们。 当我尝试创buildmd0数组时,出现以下错误。 /dev# mdadm –create /dev/md0 –level=1 –raid-devices=2 /dev/sda1 missing -f mdadm: device /dev/sda1 not suitable for any style of array Debian似乎认为驱动器已经在arrays中,但事实并非如此。 # fdisk -l Disk /dev/sda: 250.0 GB, 250000000000 bytes 255 heads, 63 sectors/track, 30394 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): […]

mdadm的检查命令的目的是什么?

我发现我的一台服务器比以前运行速度慢,因为在服务器上默认安装了cronjob启动的checkarray。 这是Ubuntu 14。 在这种情况下,我只有一个RAID1。 这个检查的目的是什么? 如果检查结果错误,希望在等待彻底失败时将未来问题降到最低,将磁盘标记为有问题? 我应该如何configuration此检查以更好地适合我的设置? 如果我应该这样做的话。 有没有一个为什么运行这个“更好”的空闲模式? 由于强大的I / O操作,系统在生产时,我对性能有点担忧。

RAID1 – mdadm镜像 – 不按预期执行并行读取?

我们有一个由mdadm驱动的三路RAID 1镜像。 我想我读了mdadm应该采取多个同时读取请求,并分布在镜像中的不同驱动器(并行化读取),以提高读取性能,但在我们的testing和观察iostat -xm 1的输出,它只出现/ dev / sda正在被使用,即使该设备的I / O从5个不同的md设备饱和。 我误解了什么? mdadm是否需要configuration不同? 我们的版本(CentOS 6.7)不支持这个吗? 我不确定为什么这样做。 基准设置 – 同时运行以下命令: dd if=/dev/md2 bs=1048576 of=/dev/null count=25000 dd if=/dev/md3 bs=1048576 of=/dev/null count=25000 dd if=/dev/md4 bs=1048576 of=/dev/null count=25000 dd if=/dev/md5 bs=1048576 of=/dev/null count=25000 dd if=/dev/md6 bs=1048576 of=/dev/null count=25000 而那些正在观看iostat -xm 1的输出(样本输出包括在下面 – 镜像由sda,sdb和sdc组成)。 Device: rrqm/s wrqm/sr/sw/s rMB/s wMB/s avgrq-sz avgqu-sz […]