Articles of mdadm

mdadm:将RAID10转换为RAID1

有问题的机器配备了4x SSD,并运行Debian wheezy 7.8,linux kernel 3.2.0-4,mdadm v3.2.5。 目前我正在使用由所有这些ssd组成的RAID10。 我必须增加存储容量,SSD需要花费很多,所以想到要摆脱两个SSD,而不是把两个硬盘放在里面,然后把RAID10分成两个RAID1,一个是由SSD制成的,另一个是由SSD制成的的硬盘。 过去几天我在网上search了很多,但是没有发现任何有用的东西。 有人能告诉我如何将RAID10转换成一个(或两个)RAID1? 我完全不确定这是否可能,因为例如,mdadm开发人员之一Neil Brown在2009年写了一篇关于重塑的文章[1] RAID0和RAID10 目前这些arrays根本无法改造。 有人可以告诉我,如果这是可能的,如果是的话,如何做到这一点? 提前致谢! [1] http://neil.brown.name/blog/20090817000931#4 编辑1:在[2],有人问是否可以将raid10转换为raid0,得到三个答案,其中一个是“是”,一个是“否”。 – 很混乱 [2] 我可以将raid10arrays转换为raid0吗? 编辑2:使用mdadm /dev/md0 –grow –level=1 (在虚拟testing机器中)给出mdadm: RAID10 can only be changed to RAID0 。 所以似乎要走的路是转换到RAID0,然后到RAID1; 但真的不喜欢这个想法,因为这是相当危险的…任何人都知道一个更好,更安全的过程? 编辑3:不可能将RAID0转换为RAID1,试图这样做给mdadm: Impossibly level change request for RAID1 。 因此,似乎需要创build一个1级的新arrays,由当前服务于RAID0的两个设备组成。

apt-get install linux-image-extra得到“W:mdadm:/etc/mdadm/mdadm.conf定义没有数组。”

安装时: sudo apt-get install \ linux-image-extra-$(uname -r) \ linux-image-extra-virtual 我正进入(状态: W: mdadm: /etc/mdadm/mdadm.conf defines no arrays. 我发现别人有类似的问题: apt-get update mdadm可怕的警告 所以我遵循指示: /usr/share/mdadm/mkconf > /etc/mdadm/mdadm.conf 然后: update-initramfs -u 但是输出结果是: update-initramfs: Generating /boot/initrd.img-4.10.0-30-generic W: mdadm: /etc/mdadm/mdadm.conf defines no arrays. lsb_release -a LSB Version: core-9.20160110ubuntu5-amd64:core-9.20160110ubuntu5-noarch:security-9.20160110ubuntu5-amd64:security-9.20160110ubuntu5-noarch Distributor ID: Ubuntu Description: Ubuntu 17.04 Release: 17.04 Codename: zesty vim /etc/mdadm/mdadm.conf # […]

ext3格式选项

我在软件raid5(md)之上创build一个ext3文件系统,我想知道创build文件系统(使用mkfs.ext3)和安装时最好的参数是什么。 RAID5块大小为128k,arrays有3个驱动器,有效总数为900 GB。 ext4不是一个选项。 编辑:文件系统有几个VPS(虚拟私人机器),包括一个Gentoo VPS与很多很多小文件。 VPS不使用图像,它们直接在文件系统上存储文件。 它也有很多500-1000 MB的文件。 谢谢,马蒂奇

奇数mdadm输出:–examine显示arrays状态失败,–detail显示一切干净

设置:mdadmpipe理的RAID5arrays中的8个磁盘(/ dev / md0,由/ dev / sdc通过/ dev / sdj创build)。 一个磁盘(/ dev / sdh)显示SMART错误(增加待定扇区数),所以我正在寻找replace它。 另外,机器从configuration有RAID0条带的PCIe插槽中的Revodrive SSD进行引导。 奇怪:mdadm –detail输出显示数组为干净的,一切看起来运行良好(我可以挂载,读取,写入数组没有问题)。 mdadm – 显示每个磁盘的输出显示失败的数组状态。 root@saturn:/backup# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid5 sdi1[6] sdj1[8] sdh1[5] sdg1[4] sdf1[3] sde1[2] sdd1[1] sdc1[0] 20511854272 blocks super 1.0 level 5, 64k chunk, algorithm […]

Linux RAID控制器(LVM / MDADM)

今天我在一个非常糟糕的地方。 生产RAIDarrays下降。 控制器失败。 卸载文件系统并终止所有进程后,我更改了硬件控制器。 重新启动arrays的磁盘已经回来,我想尝试重新组装数组。 但是,我无法停止现有的数组。 我有 : cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md1 : active raid5 sdi1[5](F) sdh1[6](F) sdg1[7](F) sdf1[8](F) sde1[9](F) sdd1[10](F) 976751616 blocks level 5, 64k chunk, algorithm 2 [5/0] [_____] md2 : active raid5 sdo1[5](F) sdm1[6](F) sdl1[7](F) sdk1[8](F) sdj1[9](F) 3907039744 blocks level 5, 64k chunk, algorithm 2 [5/0] [_____] unused […]

mdadm内核日志消息的解释

欢迎。 我试图恢复从Linux软件突袭故障。 我正在重build基于系统日志的超级块,当它是健康的。 日志讲述了大约2个md设备,每个设备基于5个500GB分区。 RAID-5 / dev / md5由/ dev / sd [bf] 6组成,而RAID-6 / dev / md6由/ dev / sd [bf] 5组成。 相关部分dmesg日志如下所示: [ 5.964928] raid5: allocated 5265kB for md5 [ 5.979771] 4: w=1 pa=0 pr=5 m=1 a=2 r=5 op1=0 op2=0 [ 5.987064] 1: w=2 pa=0 pr=5 m=1 a=2 r=5 op1=0 op2=0 [ 5.994256] […]

使用LVM和MD RAID 5的KVM中的磁盘I / O速度较慢

我一直在debian下面用kvm安装了两个星期,特别是访客I / O磁盘的性能。 系统: -Supermicro 1018d-73mtf (X10SL7-F motherboard) -16GB ECC/UB -Intel Xeon E3-1240v3 -6xWD Red 750GB 6Gb/s 在这个上,我正在两个磁盘上运行Debian Wheezy,其他四个磁盘都是用md来设置raid5,而LVM在客户端存储上。 直接在raid5上进行性能testing(通过创build一个LV并安装它并运行bonnie ++和ddtesting来衡量)是很好的,给我〜220 / 170MB / s的读/写,但是在客户端上,我得到了不错的读取和40-50MB / s的写入,在Windows(Server 2012)和Linux(Debian)上进行了testing。 我已经阅读了alignment磁盘和分区,并重新创build本书的RAID和LVM设置,但havnt收到任何性能提升。 当直接从主机写入数据时,我可以看到磁盘和lvm的负载很高,但是在客人写入的时候测量显示磁盘的大小约为20-30%,而lvm的是“红色”(100%)。 。 KVM /主机系统的正常调整已经完成,将调度程序设置为最后期限,为RAID设置条带caching,在guest虚拟机上caching=无,将SAS控制器卡重新刷新到IT模式(LSI 2308),我不知道,这里是一个关于设置的相关信息的pastebin,希望有人注意到我做了错误的东西http://pastebin.com/vuykxeVg 。 如果你需要任何其他东西粘贴它。 编辑: 这基本上是如何设置驱动器,md和lvm,有一些变化,因为我运行3个磁盘+备用。 http://dennisfleurbaaij.blogspot.se/2013/01/setting-up-linux–mdadm-raid-array-with.html 主持人和嘉宾写作testing(bonnie ++)的截图 主持人: http : //i.imgur.com/IsTprqA.png 客人: http : //i.imgur.com/uVmhFCK.png

Linux的; 将RAID5块大小设置为4kB以匹配FS块大小和物理磁盘扇区大小

有许多讨论和网站,解释了用mdadm设置Linux软件RAID的过程,其中新的RAID块大小为128kB或512Kbs。 Serverfault也不例外。 我现在正在构build一个新的媒体NAS,我看不出有什么理由不使用4kB的块大小。 'RAID-5-to-be'中的四个物理磁盘中的每一个都具有4KB扇区。 当然,4kB的卡盘大小最有意义的映射从RAID卷到磁盘扇区的1:1关系? 然后创build一个4kB块大小的文件系统(这将是EXT4)? 当磁盘只有4kB扇区时,128kB(例如)块大小如何变得更有利?

读取/ proc / mdstat

我刚刚build立了我的第一次raid5(4小时),并阅读关于/ proc / mdstat的监测。 我的理解是一个理想的显示,4驱动器应该是[UUUU],但是我读[UUU_]。 见下文: Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid5 sde[4] sdc[1] sda[0] sdd[2] 11720661504 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [UUU_] [==>………………] recovery = 11.3% (442037248/3906887168) finish=7793.7min speed=7408K/sec unused devices: <none> 这是正常的,因为我的RAID仍在同步? 我可以在每个驱动器上使用fdisk查看适当的大小,所以我不相信我有任何DOA驱动器。 谢谢

用mdam恢复Synology丢失的RAID1卷

几天前我发现我的DS412 +处于致命状态。 卷1崩溃,系统卷也是。 而且Volume2从系统中消失了! 看起来Volume1没有空闲空间,不能将数据从一些坏块传输到一个新的地方,并伤害系统数据。 (这只是一个理论)。 我设法使用这里描述的过程( e2fsck, mdadm reassemble )将Volume1恢复到生命。 BTW不得不提及新的syno_poweroff_task命令,简化了这个过程! 然后,我使用Synology GUI恢复系统音量。 一切开始工作确定,除了我不能还原Volume2。 这是由两个相同大小的磁盘组成的RAID1arrays。 这是崩溃前date的/etc/space_history*.xml的摘录: <space path="/dev/md3" reference="/volume2" > <device> <raid path="/dev/md3" uuid="927afd83:*" level="raid1" version="1.2"> <disks> <disk status="normal" dev_path="/dev/sdc3" model="WD30EFRX-68AX9N0 " serial="WD-*" partition_version="7" slot="1"> </disk> <disk status="normal" dev_path="/dev/sdd3" model="WD30EFRX-68AX9N0 " serial="WD-*" partition_version="7" slot="0"> </disk> </disks> </raid> </device> <reference> <volume path="/volume2" dev_path="/dev/md3"> </volume> </reference> […]