我目前正在从5个设备重build一个RAID6 MDADMarrays到9。 cat /proc/mdstat : Personalities : [raid6] [raid5] [raid4] md0 : active raid6 sde1[0] sdg1[9](F) sdh1[8](F) sdi1[6](F) sdj1[7](F) sdd1[4] sdc1[3] sdb1[5] sdf1[1] 2926751232 blocks super 1.2 level 6, 512k chunk, algorithm 2 [9/5] [UUUUU____] [>………………..] reshape = 0.0% (112640/975583744) finish=142795.3min speed=113K/sec unused devices: <none> mdadm –detail /dev/md0 : /dev/md0: Version : 1.2 Creation Time […]
我在森林深处运行一个服务器,经历了一个艰难的迪斯科故障,我得到了这个错误。 错误:find两个数字为0的磁盘。 这是一个服务器与2,1 TB的RAID 1在RAID 1 0.9 SDA失败和mdadm交换到SDB,我改变硬盘,重新添加成员和同步过程开始。 但是现在我每次都得到这个错误,我想重新安装sda的grub以防sdb坏了。 mdadm -D /dev/md0 /dev/md0: Version : 0.90 Creation Time : Wed May 9 18:18:09 2012 Raid Level : raid1 Array Size : 944750400 (900.98 GiB 967.42 GB) Used Dev Size : 944750400 (900.98 GiB 967.42 GB) Raid Devices : 2 Total Devices : 2 Preferred Minor […]
我有一个3磁盘RAID 5arrays,我试图添加第四个磁盘。 mdadm –add /dev/md6 /dev/sdb1 mdadm –grow –raid-devices=4 /dev/md6 这个操作成功开始,直到达到51.1% cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md6 : active raid5 sda1[0] sdb1[5] sdf1[3] sde1[4] 3906764800 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU] [==========>……….] reshape = 51.1% (998533632/1953382400) finish=9046506.1min speed=1K/sec bitmap: 0/15 pages [0KB], […]
在恢复期间,我刚刚更换了raid6arrays(由8个驱动器组成)中的故障驱动器,但是在iostat中发现了一些奇怪的东西。 所有驱动器获得相同的速度(如预期),除了一个驱动器(sdi)不断读取比其他更快。 它也读了大约八分之一的速度,这可能与数组中共有八个驱动器有关,但是我不知道为什么… 在整个恢复期间(总是相同的驱动器读取速度比其他所有驱动器都快),并且查看所有驱动器的统计数据,所有驱动器读取/写入的数据几乎相同,除了读取了八分之一以上的sdi。 一些iostat统计平均为100s: Device: tps MB_read/s MB_wrtn/s MB_read MB_wrtn sdb 444.80 26.15 0.00 2615 0 sdb1 444.80 26.15 0.00 2615 0 sdc 445.07 26.15 0.00 2615 0 sdc1 445.07 26.15 0.00 2615 0 sdd 443.21 26.15 0.00 2615 0 sdd1 443.21 26.15 0.00 2615 0 sde 444.01 26.15 0.00 2615 0 sde1 444.01 […]
在我运行Ubuntu 10.04的系统上。 我的raid-1恢复速度很快,但很快就变得非常缓慢(恢复速度达到150天!): dimmer@paimon:~$ cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid1 sdc1[2] sdb1[1] 1953513408 blocks [2/1] [_U] [====>…………….] recovery = 24.4% (477497344/1953513408) finish=217368.0min speed=113K/sec unused devices: <none> 尽pipe我已经将内核variables设置为合理的快速值: dimmer@paimon:~$ cat /proc/sys/dev/raid/speed_limit_min 1000000 dimmer@paimon:~$ cat /proc/sys/dev/raid/speed_limit_max 100000000 我正在使用2个2.0TB西数硬盘,WDC WD20EARS-00M和WDC WD20EARS-00J。 我相信他们已经被分割,使他们的部门是一致的。 dimmer@paimon:/sys$ sudo parted /dev/sdb GNU Parted […]
这是一个常见问题,但我迄今发现的所有答案都不适合完全自动化,这是我所需要的。 所以在这里再次。 在Linux中: 是否有一种可靠的方法来parsing硬盘的udev设备名称(例如“/ dev / sdg”)到其数据path中,以识别设备连接的物理真实电缆(EG“PCIe-Slot2,SAS通道0,复制器端口3“? 我在热插拔背板上运行了十几个SATA磁盘的服务器。 使用dmraid(Linux)将磁盘组装成软件Raid6。 由于这个问题的范围以外的原因,我想和需要运行软件RAID,而不是通过专用控制器硬件突袭。 软件RAID的缺点之一是当驱动器arrays中的驱动器发生故障时,驱动器托架上的故障指示灯不亮,因为该驱动器无法轮询mdadm以查找驱动器状态。 您必须手动find故障驱动器的位置。 我知道你可以只发出一个dd if=/dev/sdg of=/dev/null ,看看哪个活动指示灯亮了,但是我正在瞄准这个漂亮的解决scheme。 为了解决这个问题,我一起砍了一块PCB,通过i2c与背板对话,打开/closures托架的故障指示灯,我有一个脚本通过RS232与这块主板通信。 当发生故障事件时,mdadm可以运行命令,所以我可以告诉mdadm运行我的脚本,并在驱动器掉出arrays时打开LED。 唯一的问题是: mdadm告诉我“驱动器/ dev / sdg1失败” 。 但是我需要的是“驱动控制器1,通道2,端口3失败” ,所以我可以识别哪个LED打开。 有没有人知道一个可靠的方式来解决设备名称像/ dev / sdg回到path? 我知道hdparm -I /dev/sdX将给我的驱动器的序列号和供应商,所以我可以通过查看标签手动识别磁盘,但重点是自动执行此操作。 可靠地识别所涉及的控制器/端口就足够了,因为在使用背板时布线通常不会改变,并且我知道什么控制器端口服务于什么驱动器托架。 我的第一个想法是做ls -lah /dev/disk/by-path | grep /dev/sdX ls -lah /dev/disk/by-path | grep /dev/sdX作为适当的目标名称,但是这certificate是不可靠的,因为目前安装的磁盘一半都没有出现在该目录中。 只是说“你的第一个控制器将有sda-sdh,你的第二个控制器将有sdi-p”也是不可靠的,因为在启动时有一个竞争状态,有时一个控制器被初始化,有时是另一个。 无论哪一个首先被初始化得到/ dev / sda …另外事情变得复杂在一个热的交换或者如果不是所有海湾被填充。 lshw -short -c […]
当raid-1 / dev / md2与/ dev / sda3 + / dev / sdb3从/ dev / sdb3重新同步到/ dev / sda3时,服务器崩溃。 可悲的是,由于硬件故障,/ dev / sdb完全丢失。 我现在只剩下/ dev / sda3,它是/ dev / md2的一部分,但不适合。 mdadm –assemble –scan –verbose [..] mdadm: /dev/sda3 is identified as a member of /dev/md2, slot 2. mdadm: No suitable drives found for /dev/md2 检查输出: mdadm […]
我是一个坏人,并没有在其他地方备份我的RAID。 我现在有一个RAID10arrays,不会组装,我希望我可以保存它。 以下是详细信息: 我有五个硬盘设置为RAID10(4 + 1备用)。 由于不明原因,两个失败了,我的备件被打破,现在我似乎无法重新组装它们。 我在下面有一些信息,特别是重启后mdstat的输出[1],停止arrays并尝试重新组合它的输出[2]以及来自mdadm -E [3]的详细信息。 文献似乎表明,我可能会强制使用–create和–assume-clean重新创buildRAIDarrays,但是我担心这会加重我的数据。 我目前的想法是使用具有最高匹配事件(sdc1,sdd1和sde1,下面)的驱动器在降级状态下重新创buildarrays。 有更好的解决scheme吗? megatron ~ # mdadm -E /dev/sd[bcdefghijklmnop]1 | egrep 'Event|/dev' /dev/sdb1: Events : 494734 /dev/sdc1: Events : 502154 /dev/sdd1: Events : 502154 /dev/sde1: Events : 502154 /dev/sdf1: Events : 494756 [1]这是重启后mdstat的输出: megatron ~ # cat /proc/mdstat Personalities : [linear] [raid0] [raid10] [raid6] [raid5] […]
我在使用LVM和mdadm的系统上设置flashcache时遇到了问题,我怀疑我要么丢失了一个显而易见的步骤,要么做出一些错误的映射,希望有人能指出我正确的方向? 系统信息: CentOS 6.4 64位 mdadmconfiguration md0 : active raid1 sdd3[2] sde3[3] sdf3[4] sdg3[5] sdh3[1] sda3[0] 204736 blocks super 1.0 [6/6] [UUUUUU] md2 : active raid6 sdd5[2] sde5[3] sdf5[4] sdg5[5] sdh5[1] sda5[0] 3794905088 blocks super 1.1 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU] md3 : active raid0 sdc1[1] sdb1[0] 250065920 blocks super 1.1 512k […]
我在运行BIOS传统模式的Debian 7上,在JBOD模式(没有HW raid)下运行了2个LSI SAS2008后面的mdadm上的14个磁盘RAID 6。 Grub2正在下降到救援shell抱怨“没有这样的设备”存在“mduuid / b1c40379914e5d18dddb893b4dc5a28f”。 从mdadm输出: # mdadm -D /dev/md0 /dev/md0: Version : 1.2 Creation Time : Wed Nov 7 17:06:02 2012 Raid Level : raid6 Array Size : 35160446976 (33531.62 GiB 36004.30 GB) Used Dev Size : 2930037248 (2794.30 GiB 3000.36 GB) Raid Devices : 14 Total Devices : 14 Persistence […]