Articles of 软件RAID RAID

megaraid存储pipe理器不会看到本地主机RAID

我们在ibm服务器上安装了linux red hat 6,我们使用megaraid存储pipe理器对其进行了监视,并且一切正常。 但在3天前,我们重新启动服务器(关机,按下button),之后,我们意识到,megaraid存储pipe理器不再检测本地主机突袭。 它检测到与本地主机在同一networking中的不同服务器上的其他突袭,但它不检测本地主机突袭。 在另一台服务器上的megaraid存储pipe理器也不能检测到这个特殊的raid,但是他们检测到了他们和他人。 我怀疑袭击是否损坏,因为没有橙灯闪烁,生产24/7服务器工作得很好。 这是突袭是由于某些原因,只是不为大型控制者所见 所以问题是 – 是否有一些过程或什么应该开始进行突袭,以便使大型控制pipe理人员可见? 我不想closures生产服务器,以确保raid是好的,然后再次启动,无法再与megaraidpipe理器连接到它..

迁移Linux数据的最快方法

我正在寻找一个快速将Linux安装迁移到另一个硬件的方法。 正如我在另一个问题( 无法在CentOS中访问恢复设备)中所写的那样,我将软件RAID中的2个磁盘移动到了另一个硬件,现在它不能启动,因为服务器有一个不包含在initrd映像中的SATA硬件控制器。 我花了一整天的时间试图解决这个问题(用亲爱的mkinitrd),但仍然无济于事。 这一切都可能变得复杂,因为我有一个软件突袭运行和操作系统的顶部,并沿线的某个地方它不工作。 无论如何,我现在只想build立一个新的镜像raid,尽可能快地移动旧驱动器中的所有数据,尽可能less的configuration。 有没有一个好的方法来做到这一点? 我听说DD应该诀窍,但稍后将与控制器一起工作,或者它只是覆盖所有的磁盘,我会回来的一开始? 巨大的感谢提前!

mdadm&raid6:“重新创build(使用不同的块大小)+ resync”破坏orig。 数据?

我想救救我的软件raid-6arrays上的数据。 我用这个原始数组做了一些愚蠢的动作(如下所述)。 主要问题: 我需要知道,在这个arrays上准备了以下操作(按照下面列出的顺序执行)之后,存储在raid-6arrays上的原始数据是否肯定会丢失(或不是): 清零arrays中注册的所有活动磁盘/分区的超级块 使用不同的选项执行“mdadm –create …”命令(参见下面的列表),比原来创build数组时已经使用的要多: – >不同的块大小 – >不同的布局 – >不同的磁盘顺序 重新同步数组 注意:在这里mdadm参数的具体值不应该是相关的,因为这是关于mdadm如何工作的原理… 我认为要点1)和2)甚至不应该接触原始数据,因为它们只能操纵超级块 从数据丢失的angular度来看,我认为这一点是最为关键的:我不确定在重新同步期间arrays到底发生了什么,但是基于所有涉及到的硬盘的大量活动(大约7小时),我假设数据存储区域是完全重新处理… … – 子问题: 硬盘驱动器/分区(因为他们在mdadm命令行上订购)的sorting是否对raid6创build和初始重新同步起作用? 在创build数组后,为了能够安全地重新创build与我的情况类似的情况下的数组(例如,数组中涉及的每个磁盘的备份超级块信息和分区表信息…),备份什么都需要? 评论: 应该修改mdadm wiki文章( http://en.wikipedia.org/wiki/Mdadm ),并且应该将作者踢入一点,或者稍微多一点点… 文章提到了调零超块和后续arrays重新创build作为解决scheme,以摆脱“mdadm:不能打开…:设备或资源繁忙”的问题。 作者忘了提及重要的一步 – 备份参数原始数组(超级块)作为第一步…我的调查似乎也指出,所涉及的磁盘/分区的sorting也起着作用… 感谢您的回答, 彼得

Linux软件RAID: – auto-detect发现整个驱动器,而不是最后一个分区

运行Ubuntu Natty的我的笔记本电脑是这样分区的: / dev / sda1:500MB,/ boot / dev / sda2:148GB,/ sda2是1个设备的软件RAID1。 这是故意的 – 我周期性地重塑与外部驱动器arrays。 正常运行时,数组如下所示: / dev / md0,[sda2] 这一切都很好,除了当我启动,数组被检测为: / dev / md127,[sda] 即整个驱动器,而不是分区。 我认为这是因为0.90元数据格式存储在最后,但是…当然,它存储的起始地址或设备的地方? mdadm –examine为/ dev / sda和/ dev / sda2提供了相同的结果; 我期望它在/ dev / sda上失败,但是(再次)我认为这是因为sda2的元数据恰好在sda的正确位置。 为什么自动检测到错误的RAID设备? 没有对驱动器进行重新分区,有没有办法阻止sda被检测为RAIDarrays?

Linux的DD软件突袭?

请指教用dd创buildlinux软件raid映像的最佳方法是什么? / dev / md0由/ dev / sda和/ dev / sdb组成。 我运行dd if = / dev / sda = sda.img对于sdb是一样的 在远程系统上恢复 恢复MBR 现在我收到了一些可以用FSCK修复的错误。 我想知道是否有更好的方法呢? 在运行系统上虽然… 提前致谢

控制RAID 10arrays中的mdadm故障磁盘重build顺序

我有一个Linux mdadm RAID 10arrays,包含configuration有n2个副本的6个(SATA)磁盘。 当拔出一个磁盘时,另一个镜像对中的另一个失败。 留下我: $ cat /proc/mdstat md2 : active raid10 sdb1[1] sdd1[5] sdc1[3] sdf1[2] 2929412352 blocks 64K chunks 2 near-copies [6/4] [_UUU_U] 我想replace第五个磁盘,并用以下命令重build分区表: sfdisk -d /dev/sdf | sfdisk /dev/sde sfdisk -d /dev/sdf | sfdisk /dev/sde 但是,当我用mdadm -a /dev/md1 /dev/sde1添加新磁盘时,mdadm开始重buildRaidDevice 0 $ mdadm -D /dev/md2 … Number Major Minor RaidDevice State 6 8 […]

更新内核后没有检测到Adaptec RAIDarrays?

继续从这个话题,新的内核启动成功,但它没有看到我的sdc – 这是一个硬件RAIDarrays(10级)。 我确定aacraid模块已经加载: # grep aacraid /2.6.34.14/init echo "Loading aacraid.ko module" insmod /lib/aacraid.ko # lsmod | grep aacraid aacraid 83347 3 scsi_mod 154582 13 be2iscsi,ib_iser,iscsi_tcp,bnx2i,cxgb3i,libis)csi,scsi_transport_iscsi,scsi_dh,sg,usb_storage,aacraid,libata,sd_mod 我一直在试图安装AACRAID驱动程序 ,但有以下几点: # rpm -ivh aacraid-1.2.1-29900.rpm Preparing… ########################################### [100%] 1:aacraid ########################################### [100%] Adaptec aacraid driver installer – V1.5 Using GRUB configuration Configuration [CentOS (2.6.18-274.el5)] /boot/vmlinuz-2.6.18-274.el5 -> 2.6.18-274.el5 Installing in […]

CentOS系统恢复:覆盖RAID Superblock并移植到新硬件

我在CentOS 6上运行了一个失败的系统,想尝试恢复系统。 其中一个问题是mdadm超级块出现了一些问题,它具有各种不一致的信息,似乎被某种方式覆盖。 我得到的元数据显示,他们是版本1.0和1.1。 我敢肯定,所有raid卷应该使用1.2版本。 这发生在所有的硬盘驱动器上,所以我不能简单地拿一个工作。 我设法安装这些卷,并通过简单地执行“cp”命令并将其复制到另一个硬盘上。 新的硬盘将有新的UUID,所以我将不得不重做一些configuration文件。 想到什么变化是以下文件: /etc/mdadm.conf / etc / fstab文件 grubconfiguration(grub-install可能可以完成这个工作,需要尝试一下) 初始RAM磁盘需要重新编译,以了解更改 重新生成blkid.tab 有没有其他的改变,我需要做一个可启动的系统? 谢谢。

任何人都试图Raidmembers?

我想更换10磁盘raid6(Linux软件突袭)中的所有磁盘。 我可以通过拉盘来做到这一点,让arrays重build,冲洗,重复。 但是这将需要很长时间,并且导致10次重build,这很可能使所有10个磁盘压力比通过一次简单地读取每个磁盘更多。 我的问题是这样的: 我可以closuresarrays,并将每个旧磁盘dd到一个新的磁盘,然后用10个新磁盘启动arrays? 在一个理想的世界里,我会build立另一台服务器,只是通过networking复制数据,但这不是一个理想的世界。

使用版本1.2元数据从双驱动器RAID 5arrays中移除驱动器?

我的情况与“如何从非标准的双驱动器RAID 5arrays中移除驱动器”几乎相同? ,除了我的2 TB RAID5正在使用mdadm超级版本1.2。 根据最好的答案 ,“因为它是0.90的mdadm超级块,所以每个驱动器也应该可以自己使用。由于1.1和1.2将元数据放在arrays的起始位置,所以这些版本不起作用。 “ 但是,执行后 mdadm /dev/md0 –grow –raid-devices=2 并完成后续的布局更改,我的RAID 5看起来像这样: /dev/md0: Version : 1.2 Creation Time : Thu Sep 25 11:25:10 2014 Raid Level : raid5 Array Size : 1953383296 (1862.89 GiB 2000.26 GB) Used Dev Size : 1953383296 (1862.89 GiB 2000.26 GB) Raid Devices : 2 Total Devices : […]