我有一台戴尔2600,在PERC 4控制器上的RAID 5中configuration了6个驱动器。 2个驱动器同时发生故障,根据我所知,如果1个驱动器发生故障,RAID 5可以恢复。 我不知道,如果我在arrays中有六个驱动器的事实可能会保存我的皮肤。 我买了2个新的驱动器,并插入它们,但没有像我预期的那样重build。 任何人都可以点亮一下吗?
最近发表了很多关于RAID5是如何危险的文章,特别是因为在重启期间遇到URE的机会越来越多。 显然这是一个重要的问题。 但是, 在许多情况下 (如果你对磁盘保持某种程度的关注),似乎在重buildarrays时,我所replace的磁盘仍然是大部分可读的。 如果你试图向普通的外行解释这种困境,他们通常很困惑,为什么你有两个几乎完全function的磁盘,但不能产生一个工作arrays。 在我看来,应该有办法利用这一点来使重build更安全,只要我愿意让RAID5在重build期间只读几天。 从概念上讲,我脑子里面是这样的: 当磁盘发生故障时,请立即使RAID5脱机或将其挂载到只读位置 连接一个新磁盘(或者在备用托架中,或者通过eSATA外部连接),然后开始重build它以replace失败的磁盘。 如果知道,也许从出现故障的条带开始,以尽量减less另一个磁盘发生故障时丢失的可能性。 如果第二个磁盘在重build过程中遇到URE或其他故障,请尝试从正在被replace的磁盘获取该数据。 据推测,如果发生这种情况,更多的重build将是必要的。 完成后,closures服务器,根据需要将更换的驱动器交换到原来的托架中,然后重新装上arrays。 很明显,这样的过程不适用于正常运行时间很关键或数据丢失是不能容忍的应用,但是在我看来,这对于提高RAID5的可靠性有很大的帮助。 我认为现在还没有一个好的方法来实现这样的恢复,因为我没有看到任何devise用来做这件事的工具的迹象,而且看起来似乎是用手工来解决这个问题。 还有技术上的问题,我没有想到(我还是相当新的RAID的东西)? 任何想这样的事情会如何实现(例如在Linux MD的RAID)? 编辑 :如果其他人发现这一点,而我正在寻找同样的事情,这原来已经是在新版本的MD的一对function。 坏块列表(如果启用)允许md单个块而不是整个磁盘失败,热replace允许build立一个新的磁盘,主要从它将要replace的磁盘开始工作,但是从数组中的其他磁盘需要的时候。 最近的mdadm的联机帮助页有更多关于如何做这些的说明。
感谢您阅读此主题,我提前感谢您提供任何帮助。 所以这就是发生了什么…我注意到,我的MDADM RAID 5arrays与驱动器命令:/ dev / sd [EFGHIABCDKJ] 1报告一个失败的驱动器 – / dev / sdb1。 我停止了数组并运行smartctl -t long / dev / sdb1并收到一个通行证。 所以我用mdadm –add把/ dev / sdb1加回到了/ dev / md0。 在重build过程中,/ dev / sdh1脱机(我正在从FL移动到MI时,数据线必须松动),现在arrays状态已经降级。 我再次使用smartctl检查了两个驱动器,并收到了2个通行证。 我读了一些有关使用mdadm -C / dev / md0 / dev / sd [efghiabcdkj] 1的论坛上的build议,但是驱动器顺序已经变糟(sd [abcdefghijk] 1而不是sd [efghiabcdkj] 1)。 我试图mdadm -Af / dev / […]
机器:Linux的centos 5.4与2硬盘和RAID 5(是的,第三盘丢失)。 情况: 所有运行正常(第三盘丢失) 然后closures电源(电池电源closures时系统自动closures)。 机器不回来 在屏幕上的消息: Memory for crash kernel (0x0 to 0x0) notwithin permissible range PCI: BIOS Bug: MCFC area at e0000000 is not E820-reserved PCI: Not using MMCONFIG. Red Hat nash version 5.1.19.6 starting insmod: error inserting '/lib/raid456.ko': -1 File exists md: md2: raid array is not clean — starting background […]
基本情况: 我正在寻找手动重build一个RAID5arrays的控制器已经失去了configuration。 更麻烦的是,卷是使用全磁盘encryption(至less我有密钥)进行encryption的,并且所用的RAID卡不是(IMO)非常企业级的,在事情发生时缺less“手动执行”的选项出错了,现在我正在寻找如何重新安装这个arrays(或者从我有的有效磁盘上手动重build它)。 后面的故事: 我们在一个运行在高端工作站上的小型远程站点上有一个“服务器”文件。 该文件共享是从一个跨越8个SATA磁盘的单个卷托pipe的,这个磁盘在configuration为RAID5的Adpatec 3805 RAID卡上。 (我知道,但是等一下,它会好起来的。)由于这是一个远程站点,通过T1连接,并且只包含我们不关心的用户文件,所以没有备份。 幸运的是,我们关心安全性,因此系统上的所有卷都使用全盘encryption进行encryption。 无论如何,大约一个星期之前有人切断了机器的电源,导致控制器上的音量显示失败,并且arrays显示缺less或缺less所需的成员。 所有的磁盘function,并据我所知,没有损坏。 噢,虽然数据不足以备份,但是它的价值不会丢失,所以我可以弄清楚如何获取数据,所以我们可以把它放在我们发送的新的replace服务器上在那里,两周的时间太晚了(这次将作为备份,除了作为一个真正的服务器,至less)。 到目前为止: 通常情况下,在服务器上的RAID控制器上,我只是从磁盘重新加载arraysconfiguration,覆盖控制器上的无效configuration,并完成它,但是这个RAID卡没有这个选项,所有两个Adaptecbuild议的可用故障排除/arrays恢复选项已经尝试过。 (尝试联机强制arrays,通过BIOS级configuration实用程序检查arrays是否可pipe理)。 无论如何,在做任何进一步的工作之前,我目前正在采取磁盘映像的驱动器,为了有一个类似的备份,并给自己的能力做testing和工作,否则可能会破坏数据的缘故。 解? 鉴于Adaptec的实用程序没有帮助,并且不包含手动选项,我有什么select/我该如何获得这个arrays及其卷再次挂接,以便我可以解密卷和吸取数据? 恐怕我的低级RAID知识不是很好,但是在我看来,因为我有驱动器(以及它们连接的顺序),并知道如何configurationarrays,所以我应该能够通过那个信息给一个程序( mdam ,也许?)安装arrays,解密卷并且相当平凡地提取数据(假设它没有损坏),但是我很难find如何实际做到这一点,我们的软件“或”使用我们的恢复服务“。
我有一个RAID控制器的服务器,通过SAS连接到JBOD。 JBOD中装有16个3TB的SAS-HDD(一个8个,其他8个,相同的rpm)。 我configuration了3个带有RAID-5的逻辑驱动器,每个都有5个物理硬盘(+1作为热备份)。 现在来testing一下,我运行下面的脚本: for i in 1 10 50 100 1000 do for j in abc do dd if=/dev/zero of=/dev/sd$j bs=1G count=$i done done 每次我运行这个脚本,它运行罚款= 1,10和50。 但是用100G,写在虚拟驱动器随机崩溃。 意思是,有时在/ dev / sda上写入没有和错误,但是崩溃了/ dev / sdb。 有时在/ dev / sda和/ dev / sdb上完成写入,但是在/ dev / sdc上写入失败。 我怀疑我的RAID卡可能有故障,因为我已经通过直接将它们连接到服务器并在完整的3TB上运行“dd”来单独testing我的硬盘。 你们有什么build议? 编辑 : 服务器主板制造商/型号 :SuperMicro X8DTH-6F RAID控制器 :带有BBU的LSI MegaRaid […]
我们在一台配有5个Seagate 1 TB SAS磁盘的机器上安装RHEL5。 一个有操作系统和交换。 其他四个硬件Raid 5(安装为/ home)由DELL Perc 6 / i控制器pipe理。 当系统启动时,它在udev上花费很长时间,最终超时。 尽pipe如此,RAID的写入速度在90-100MB / s的范围内。 我们通过反复复制大文件(〜3 GB)来testing写入速度。 在第七个副本上,写入速度突然下降到1 MB / s。 我们已经多次testing过这个问题,而且问题是可以重现的。 / var / log /中的任何日志中都没有消息。 free -m和vmstat不显示任何交换活动。 对类似post的回复要求提供/ proc / mdstat的内容。 我们的是: #cat / proc / mdstat 个性: 未使用的设备:<无> 我不知道如何追踪这个问题。 这个系统在过去的一年半时间里工作正常。 在我们试图从1TB磁盘升级到2TB磁盘以增加磁盘空间之后,就出现了这个问题。 新磁盘已安装,并从头开始构buildarrays。 自从我们知道硬件configuration能够正常工作以来,我们已经恢复到了1TB磁盘。 任何build议或疑难解答提示,欢迎。 感谢您的时间和耐心。 编辑:问题解决了。 原来,机器需要很多固件更新。 在2TB磁盘第一次尝试的时候,RAID控制器被更新了,这是导致问题的原因。 现在安装3个BIOS和1个更新的控制器固件更新后,机器就像一个魅力。 写入速度在180 MB […]
今天我在一个非常糟糕的地方。 生产RAIDarrays下降。 控制器失败。 卸载文件系统并终止所有进程后,我更改了硬件控制器。 重新启动arrays的磁盘已经回来,我想尝试重新组装数组。 但是,我无法停止现有的数组。 我有 : cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md1 : active raid5 sdi1[5](F) sdh1[6](F) sdg1[7](F) sdf1[8](F) sde1[9](F) sdd1[10](F) 976751616 blocks level 5, 64k chunk, algorithm 2 [5/0] [_____] md2 : active raid5 sdo1[5](F) sdm1[6](F) sdl1[7](F) sdk1[8](F) sdj1[9](F) 3907039744 blocks level 5, 64k chunk, algorithm 2 [5/0] [_____] unused […]
欢迎。 我试图恢复从Linux软件突袭故障。 我正在重build基于系统日志的超级块,当它是健康的。 日志讲述了大约2个md设备,每个设备基于5个500GB分区。 RAID-5 / dev / md5由/ dev / sd [bf] 6组成,而RAID-6 / dev / md6由/ dev / sd [bf] 5组成。 相关部分dmesg日志如下所示: [ 5.964928] raid5: allocated 5265kB for md5 [ 5.979771] 4: w=1 pa=0 pr=5 m=1 a=2 r=5 op1=0 op2=0 [ 5.987064] 1: w=2 pa=0 pr=5 m=1 a=2 r=5 op1=0 op2=0 [ 5.994256] […]
我们有一台HP ProLiant ML350 G5服务器,在Smart Array E200i控制器上configuration了一个8槽位RAID 5arrays。 系统卷和数据位于同一个逻辑驱动器上。 驱动器每个都是72GB,而且空间不足。 所有的海湾都用完了。 在升级arrays时,我们考虑了外部存储扩展,并使用归档驱动来暂时移动数据,但考虑到它是系统驱动器,这可能会变得棘手。 我们想出了这个计划,想要validation一下这个工作: validation完整的数据备份已完成。 从托架1-4中取出72gb的驱动器,打破arrays。 将新驱动器放入托架1-4(600GB驱动器)。 我们完全意识到,将这些驱动器添加到现有的arrays将不会利用所有的空间。 让arrays重build。 从托架5-8中取出驱动器,再次断开arrays。 现在,所有的数据也都在前4个600GB驱动器上,所以我们可以将arrays扩展到全尺寸,并从逻辑驱动器中移除最后4个驱动器。 我主要不确定的部分是如何从逻辑上删除arrays中的最后4个驱动器,以及这是否可以工作。 感谢您的任何见解。 更新:由于我不能标记评论作为答案,我会更新post。 最后,我们除了备份所有数据,更换驱动器,重新创buildarrays和恢复之外没有别的办法。 当你不经常这样做的时候,这是相当不好的,所以我们把testing计划放在一起,使用Macrium服务器备份到USB3驱动器,并在新的驱动器到位后进行恢复。 在更换驱动器之前,我们确保我们可以访问所有的备份,并制定了一个计划B.花了一段时间,但它确实工作,现在他们有足够的空间可用。 谢谢。