Articles of mdadm

如何停止resync并重新启动软件raid(mdadm)?

我有24个驱动器上的RAID6。 raid是用mdadm设置的,所以它是一个软件raid。 其中一个驱动器死亡,服务器冻结,所以必须使用Power Cycle重新启动(关机+开机)。 当服务器启动时,它启动了23个设备的RAIDarrays,并开始重新同步操作。 如果我理解正确,这个重新同步只读取所有驱动器上的数据,并检查是否一切正常,没有执行写入。 我可以通过显示只读的iostat -m 1来确认。 所以我用新的驱动器replace了有故障的驱动器,并且我想启动REBUILD,所以它实际上将数据写入新添加的设备。 我发出了以下命令: mdadm –add /dev/md0 /dev/sdc # this adds sdc to the array 它进行顺利,然而袭击仍然是重新振兴,而不是重build。 驱动器在/ proc / mdstat中报告为备用(S),并且可能等待重新同步完成以便开始重build。 我不得不说,我不关心resync,我需要立即停止,并立即开始重build。 有没有办法做到这一点? 谢谢

mdadm:在RAID5中换出较大的硬盘,如何分区?

所以我得到了在MDADM RAID5中换出较小硬盘驱动器的要点: 失败并移除一个驱动器。 mdadm -f / dev / md0 / dev / sdd1 mdadm -r / dev / md0 / dev / sdd1 关机,交换硬盘,分区,并添加回arrays mdadm –add /dev/md0 /dev/sdd1 等待重新同步,并继续所有其余的驱动器。 最后增长arrays mdadm –grow /dev/md0 –size=max 我的问题是如何划分新的更大的驱动器? 我看到网上有不同的指示,我知道他们大多数都过时了,所以我想看看有没有人最近做了。 将新驱动器分区为与arrays中的旧驱动器相同的大小 将新驱动器分区为驱动器的最大大小。 我有一个非常简单的设置,每个4个驱动器RAID5 350GB。 我只有一个分区在每个驱动器上,并build立一个单一的数组。 这是一个数据存档磁盘,因此不需要多个arrays或分区。 我在想的另一种方法是备份到一个驱动器,build立一个3驱动器arrays,将备份驱动器添加到arrays。 那是: 移除一个驱动器(350GB) 添加一个新的驱动器(1TB) 备份所有的数据到新的驱动器(我的RAID数据将适合一个新的驱动器) 取出剩余的3个(350GB)旧驱动器 把其余的3(1TB)新的驱动器 build立一个3驱动器arrays 将数据从第一个新驱动器复制到arrays 擦拭备份磁盘,并添加到arrays,使其4驱动器。 这是否安全? 更快? 思考?

Linux Mdadm + LVM恢复

我最近用10.04重新安装了Ubuntu服务器,并且在重新激活容纳所有非关键数据的LVM分区时遇到了麻烦。 /dev/sda , /dev/sdb , /dev/sdc和/dev/sdd都被组装成一个Raid-5arrays/dev/md0 ,在这个arrays上有一个带有LG part1 VG media (我想;能够用vgchange -ay media && mount /dev/mapper/media-part1手动挂载它)。 我的问题是目前,我无法让系统检测到VG并激活它。 不是20分钟前,我已经工作得很好(我在上一次启动时遇到了这个问题,但没有写下我上次启动系统时实际启动VG的步骤)。 raid组装得很好,很干净,但是我不能让vg显示或者挂载。 pvck /dev/md0显示: Device /dev/md0 not found (or ignored by filtering). 我的/etc/lvm/lvm.conf中的filter = [ "a/.*/" ]是filter = [ "a/.*/" ] pvck /dev/md0p1显示: Could not find LVM label on /dev/md0p1 pvdisplay产生以下输出: Setting global/locking_type to 1 Setting global/wait_for_locks to […]

我如何更换标记为从Linux MD5 raid-5arrays中删除的磁盘?

我有一些最近的计算机问题,不知何故我的一个磁盘结束了不能在我的arrays中被识别。 它确定罚款,智能和其他一些磁盘检查使用都说得很好,但不知何故UUID是不同的。 因此,mdadm说有一个“删除”的磁盘。 理想情况下,我想更新它,以便它再次检测到,但因为这是raid-5,我不明白为什么我不能从数组中删除它,然后重新添加它,让它重build。 不幸的是,我所看到的每一条命令都要求我在删除命令时将其称为设备,但就md而言,它只是一个不再可用的uuid。 如何删除当前设置为“已删除”的磁盘? – 编辑:更多信息,按要求。 我目前正在运行一个Ubuntu的生活光盘没有networking,所以这些都是手工input。 对不起,如果有任何间距问题。 /proc/mdstat: Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] md0 : inactive sdd1[0] sdc[3] sde1[1] 3907034368 blocks mdadm –detail /dev/md0 /dev/md0: Version : 00.90 Creation Time : Wed May 26 22:59:21 2004 Raid Level : raid5 Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Raid […]

如何诊断间歇性缓慢的RAID数据传输速率?

我在Centos 5.5上安装了一个encryption的RAID6。 当我从raid传输一个大的10GB文件到我的电脑时,它会在4-5GB左右,再以9GB暂停。 数据传输从25mb / sec下降到<1mb / sec大约30-60秒。 stream式传输高清video会每隔几分钟就会结束和/或冻结。 传输是通过桑巴。 同样的事情发生在rsync(使用rsync守护进程)上,但传输速率稍高。 谁能告诉我如何去追踪这个问题? 我不知道如何找出瓶颈在哪里。 背景信息: 服务器:CPU是一个Intel(R)Core(TM)2 CPU 6300 @ 1.86GHz 拉姆:4GB 以太网:主板上的千兆位 SATA:板载x8,6个端口在一个控制器上,另一个在另一个2上 一个核心的CPU使用率约为45%,同时从RAID中传输数据。 我如何创buildRAID: Raid堆栈如下: 磁盘 – > RAID – > DM-隐窝 – > LVM – > FS 我有7x2TB磁盘。 每个都有一个'fd'(raid)分区(/ dev / sdb – > / dev / sdh)注意/ dev / sda是​​一个包含OS 这是我如何创build它 创buildRAID设备 mdadm […]

在一个分区上检测到mdadm故障

今天我收到了一封相当不错的电子邮件,build议RAID1arrays中的一个驱动器出现故障。 A Fail event had been detected on md device /dev/md4. It could be related to component device /dev/sdc2. Faithfully yours, etc. PS The /proc/mdstat file currently contains the following: Personalities : [raid1] md4 : active raid1 sdd2[1] sdc2[2](F) 87667136 blocks [2/1] [_U] md3 : active raid1 sdd1[1] sdc1[0] 250304 blocks [2/2] [UU] 奇怪的是,sdc2只是一个分区,另一个分区没有失败。 由于在另一个国家的服务器,我不能实际检查它。 […]

2磁盘RAID5 Linux软件arrays

(我已经发布了Serverfault,因为我怀疑它对于超级用户来说有点技术性,如果我错了,请在适当的地方移动它) 我正在远程查看标识为ReadyNAS ProUltra2 V1.4的设备。 看起来这个设备有2个磁盘,运行Debian的变种。 我注意到有关RAIDarrays的一些事情 – 报告如下 ReadyNAS:~# cat /proc/mdstat Personalities : [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md2 : active raid5 sda3[0] sdb3[1] 972040704 blocks super 1.2 level 5, 64k chunk, algorithm 2 [2/2] [UU] md1 : active raid1 sda2[0] sdb2[1] 524276 blocks super 1.2 [2/2] [UU] md0 : active raid1 sda1[0] sdb1[1] […]

Linux raid10在2个磁盘上

Linux mdadm有一些怪癖,其中之一就是只用两个磁盘构buildraid10。 有一些报告说,它的速度比RAID1更快(两次读取和写入): https://raid.wiki.kernel.org/index.php/Performance http://blog.a2o.si/2014/09/07/linux-software-raid-why-you-should-always-use-raid-10-instead-of-raid-1/ (raid1 vs raid10f2) 两个磁盘上的raid10与raid1一样安全吗? 使用这种解决scheme而不是“适当的”raid1有什么危险?

Linux的Raid:神秘的md_d设备

我有一个64位的Ubuntu Jaunty服务器(内核2.6.28-17-服务器)安装在两个SATA磁盘(sdc和sde)在一个镜像RAID,这是我目前的RAIDconfiguration: cat / proc / mdstat 个性:[线性] [多重] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md5:激活raid1 sdd7 [1] sdc7 [0] 126953536块[2/2] [UU] md2:激活raid1 sdd3 [1] sdc3 [0] 979840 blocks [2/2] [UU] md0:激活raid1 sdd1 [1] sdc1 [0] 96256 blocks [2/2] [UU] md4:激活raid1 sdd6 [1] sdc6 [0] 9767424块[2/2] [UU] md3:active raid1 sdd5 [1] sdc5 [0] 979840 blocks […]

Mdadm – 更改RAID 10块大小并切换到“远”布局

我使用软件RAID 10运行带有4个2TB驱动器的Ubuntu Linux NAS服务器。 我在安装过程中(使用Ubuntu Server光盘)创build了arrays,但是布局near ,块大小为64 。 我想改变块的大小为256和布局far 。 我该怎么做呢? 这里是mdstat的输出: root@server:~# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid10 sde1[3] sdd1[2] sdc1[1] sdb1[0] 3907026816 blocks 64K chunks 2 near-copies [4/4] [UUUU] 我宁愿不破坏性地进行更改以节省时间复制数据,但数据已备份,所以破坏性更改也可以。 感谢您的任何帮助。