Articles of mdadm

Linux软件RAID10:将/ dev / md0改名为/ dev / md127:为什么?

在过去的两个晚上,我们在运行Ubuntu Linux 12.04 LTS的服务器上使用Linux mdadm软件RAID10发现了一些神秘的事件: DeviceDisappeared /dev/md0 NewArray /dev/md127 这两条消息都是在同一时间出现的,与logrotate cron动作发生的时间相同。 尽pipe/dev/md127中的数组仍然名为/dev/md0 ,但在cat /proc/mdstat的输出中显示为/dev/md127 : Personalities : [linear] [multipath] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md127 : active raid10 sdb1[0] sdg1[5] sdc1[1] sdh1[6] sdf1[4] sdd1[2] sdk1[9] sdj1[8] sde1[3] sdi1[7] 9746600960 blocks 512K chunks 2 near-copies [10/10] [UUUUUUUUUU] unused devices: <none> 为什么这样,我该如何解决这个问题?

Mdadm raid1说最后一个驱动器连接失败

我有一个软件raid1arrays。 今天我发现其中一个驱动器无法同步,我得到这个: $ cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb1[0] sda1[2](F) 153597312 blocks [2/1] [U_] 所以我做了: mdadm –manage /dev/md0 –remove /dev/sda1 mdadm –manage /dev/md0 –add /dev/sda1 这些设备约25%的方式AFAIK,然后我结束了mdadm镇定的驱动器是好的,现在失败了: # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sda1[1] sdb1[2](F) 153597312 blocks [2/1] [_U] 我现在害怕重新连接并导致数据丢失。 到底是怎么回事? 有没有办法testing数组的数据是好的? 我现在应该怎么做? 哥们,谢啦

mdadm,raid1:写入多个开发人员,但从一个(大部分)读取?

在mdadm RAID1设置中可以优先使用哪些设备进行写入/读取? 我想写两个设备以实现容错(AWS EBS和本地存储SSD),但是大多数情况下是从本地SSD读取以提高延迟并避免过多的AWS I / O费用? 以上设置是针对MySQL数据的。 理想情况下,查询将由作为caching的本地SSD进行处理,但是写入将会发送到EBS和SSD设备。 后续:我发现这篇文章http://tansi.info/hybrid/有没有人看到一个问题,如果在上面的设置硬盘被EBS取代? 答:准确的设置在这里描述http://hatim.eu/2014/05/25/leveraging-ssd-ephemeral-disks-in-ec2-part-2/

mdadm resync导致系统无响应

我们有一个raid 1磁盘试图重build或同步的服务器。 磁盘正在重新同步,但服务器已无响应。 一个不能ssh进入框也没有任何服务响应。 如果你在本地局域网上,你可以使用ssh,但速度非常慢,以至于无法使用。 什么可能导致这个问题? 我们最近在大约一个月前用新磁盘重build了机器。 无论如何,我们需要增加磁盘大小,所以有机会这样做。 现在我不确定是否有某种硬件故障。 他们是使用软件RAID的SATA磁盘。 通常如果一个磁盘或控制器去,那么第二个磁盘继续运行。 不知道现在发生了什么事。 任何帮助赞赏。

英特尔matrix存储RAID和Linux mdadm

我有一个在Windows下build立的3磁盘RAID 5arrays,我想用mdadm在Linux上工作。 我已经做了一些基本的fakeraid的东西,但这是用BIOS中的英特尔matrix存储实用程序设置的,并没有像我预期的那样工作。 这是我的磁盘设置: /dev/sda – 32GB SSD, Windows boot drive. /dev/sda1 – Windows system partition /dev/sda2 – Windows C:, 29GB /dev/sdb } /dev/sdc } the RAID5 array: 3x500GB; contains one partition, a 1TB NTFS filesystem /dev/sdd } /dev/sde – 128GB SSD, Linux's drive /dev/sde1 – /boot /dev/sde2 – LVM PV /dev/dm0 – / /dev/dm1 […]

Debian,mdadm,Degraded Array,磁盘在重新添加后变得闲置

今晚我收到了我的服务器上由mdadm生成的消息: This is an automatically generated mail message from mdadm A DegradedArray event had been detected on md device /dev/md3. Faithfully yours, etc. PS The /proc/mdstat file currently contains the following: Personalities : [raid1] md4 : active raid1 sdb4[0] sda4[1] 474335104 blocks [2/2] [UU] md3 : active raid1 sdb3[2](F) sda3[1] 10000384 blocks [2/1] [_U] md2 […]

在RAID1arrays中引导具有故障设备的系统

我有一个配有3个软件RAID1设备的Linux系统,每个设备在两个相同的磁盘上包含两个相同的分区。 最近,一个磁盘上的一个非根分区开始出现DMA错误; 因此,我将其标记为失败。 当我重新启动机器时,它成功启动了内核,但几乎立即开始打印DMA错误(可能与失败的分区相关)。 不应将有问题的分区标记为失败,允许机器无误启动? 如果没有,我怎样才能让系统启动? 我尝试修改机器引导映像中的mdadm.conf文件,以便不在包含它的RAID设备的设备列表中列出有问题的分区,但似乎没有任何影响。 我还应该注意,如果从应急CD启动,并从剩余的良好分区中手动组装设备,则可以访问降级的RAID设备。

断电后,LVM错误地报告失踪

我们在数据中心发生了严重的电力故障。 我们正在使用一组服务器来满足我们的存储需求。 主服务器有几对用mdadm镜像的磁盘。 由此产生的/ dev / mdX是LVM物理卷,属于包含我们所有数据的大卷组。 powerloss之后,我们遇到了mdadm设备之一由于在mdadm.conf缺less条目而未被自动检测到的问题。 因此,由于缺lessPV,卷组具有不活动的逻辑卷。 我们能够修复mdadmconfiguration并重启。 pvscan显示所有预期的PV,但一个LV仍然没有出现。 vgdisplay显示: […] Cur PV: 3 Act PV: 2 […] vgscan和pvscan都不能显示任何丢失的设备。 什么地方出了错? 我们如何强制LVM激活所有的PV?

尝试在使用dd创build的映像上恢复MDADM RAID

我有一个带有4 + 1个磁盘的软件RAID5arrays,其中2个磁盘出现故障。 我希望通过一些冲击式维护,我可能会让其中一个失效的磁盘再次工作足够长的时间,以便进行块级别的复制来closures映像。 计划是用dd制作4个(或全部5个)磁盘的映像,然后尝试在这些映像上重buildarrays。 有没有什么东西,我错过了,这将使这不可能? 如果不是,我将如何: 将每个设备的图像复制到一个文件 安装这些 重新configurationmdadm以将这些图像用作设备 显然,有很多事情可能会导致数据损坏,但是有理由认为4个磁盘上的实际数据可能是完整的: 第二个磁盘故障可能是由于功率损失 我有兴趣恢复的数据不是在第一次失败后写的

RAID处于降级模式时如何重新添加驱动器?

我正在运行一个非托pipe的Ubuntu服务器,并且由于最近的性能问题,并向提供商发送请求只收到以下响应: “亲爱的客户, 根据要求我们检查了您的驱动器。 两个驱动器通过testing没有任何错误,并没有显示任何临界值。 我们注意到RAID处于降级状态,所以您需要在这里重新添加驱动器到arrays: —————–%<—————– Personalities : [raid1] md3 : active raid1 sda4[0] 1839089920 blocks super 1.2 [2/1] [U_] md2 : active raid1 sda3[0] 1073610560 blocks super 1.2 [2/1] [U_] md1 : active raid1 sda2[0] 523968 blocks super 1.2 [2/1] [U_] md0 : active raid1 sda1[0] 16768896 blocks super 1.2 [2/1] [U_] unused devices: […]