我在我的cron rsync激活,并开始在每个rsync后收到电子邮件 这是从mdadm自动生成的邮件消息 在titan707上运行 在md设备/ dev / md / 2上检测到降级数组事件。 忠实的你等等 PS / proc / mdstat文件当前包含以下内容: 个性:[线性] [多重] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md1:激活raid1 sdb3 [1] sda3 [0] 7995840超级块1.2 [2/2] [UU] md0:激活raid1 sdb2 [1](F)sda2 [0] 499712块超级1.2 [2/1] [U_] md2:active raid1 sdb4 [1](F)sda4 [0] 968130304块超级1.2 [2/1] [U_] 未使用的设备: 但后来smartctl和mdadmin不显示任何问题,请参阅下面的mdadm,smartctl的日志。 $ cat / proc / mdstat […]
我在一个软件RAID 1中使用两个硬盘在Ubuntu 10.04.4 LTS(Linux xxxx 2.6.32-67-server#134-Ubuntu SMP Wed Sep 24 18:55:00 UTC 2014 x86_64 GNU / Linux)上运行服务器。 我反复有这样的问题,即系统在大量时间(> 1小时)内完全没有响应,从而有效地closures了服务器。 raid让麻烦的磁盘保存在arrays中,有时候会开始重build。 我有三个单独的机器(相同的设置)相同的问题。 有一个简单的方法来防止这种停机时间? 失败的磁盘本身并没有打扰我(他们都在不停地跑了几年),但是由此产生的停机时间却困扰着我。 我的印象是RAID 1即使在一个硬盘出现故障时也能保持系统正常运行。 如果RAID控制器只是从磁盘arrays中popup磁盘,系统就会继续工作,那就太好了。 更好的办法是,如果试图在后台解决问题,而不是冻结。 只要系统保持可操作性,一些性能下降也不是问题。 以下是来自这种事件的示例日志条目: Nov 14 14:00:10 xxxx kernel: [2137088.775542] ata2.00: exception Emask 0x0 SAct 0x0 SErr 0x0 action 0x0 Nov 14 14:00:10 xxxx kernel: [2137088.788591] ata2.00: irq_stat 0x40000001 Nov […]
我知道我做了一些愚蠢的举动来进入这种情况,请不要提醒我,也不要问为什么: – / 我有这个Synology DS1515 +,在SHR中有2x6TB的驱动器,意思是MD RAID1,顶部有LVM。 在开始RAID1到RAID5转换之后,放弃它并绕过磁盘,我的ext4文件系统是不可卸载的。 是否有可能,系统已经被许多重新启动和删除磁盘所“困惑”,现在将整个磁盘空间视为RAID5卷,尽pipe从RAID1到RAID5的转换只完成了大约10%。 如果是这样,你认为我有机会修复文件系统,如果我添加第三个磁盘,让RAIDarrays重build? 还是只是将其与现在的数据完全相同,即损坏的文件系统重新绑定到逻辑卷上? 我对实际的转换过程如何进行了一点好奇,因为MD和/或LVM必须知道块设备的哪些部分应该被视为RAID5或RAID1,直到整个空间转换为RAID5。 谁更了解这个? 在此先感谢您的帮助:-) 这是我做的。 (到目前为止我的救援尝试,以及下面列出的日志条目) 将新的6TB磁盘热插入NAS。 告诉Synology的用户界面,将磁盘添加到我现有的卷,并将其增加到12TB(使其成为一个3x6TB的RAID5) closuresNAS(关机-P现在)几个你的成长过程中,并删除了新的驱动器。 NAS引导良好,但报告说我的音量降低了。 它仍然报告了一个6TB的文件系统,一切仍然可以访问。 再次热插拔磁盘3,擦去它,并制作了另一个单一的磁盘卷。 closuresNAS,取出磁盘2(这是一个错误!)并通电。 它开始发出哔哔声,并告诉我,我的音量是坠毁的。 再次closuresNAS,重新插入丢失的磁盘2。 但是Synology仍然报告这个数量是坠毁的,并没有提供修复选项。 所以,我的所有数据现在都不可用了! 我开始调查这个问题。 似乎MD正在组装数组,因为它应该: State : clean, degraded Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : […]
我是新来的raid,并且在一个月前用两个SATA磁盘build立了一个软件RAID1。 我没有检查状态,但通过拔下其中一个驱动器并validation系统正常工作进行testing。 今天,我在terminal上看到一个关于raid失败的邮件。 主题:/ dev / md / 1上的DegradedArray事件:ws 看着/ var / mail,我从几个月前就看到了类似的消息,这是我从来没有注意到的。 驱动器是相当新的,我期望在我的configuration中的问题。 我在某个地方看到,下面的状态下面的下划线表示移除的驱动器,但是单个arrays的状态没有显示任何失败的状态。 什么可能导致这个? cat /proc/mdstat Personalities : [raid1] md1 : active raid1 sda6[0] 471572344 blocks super 1.2 [2/1] [U_] md0 : active raid1 sda1[0] 975860 blocks super 1.2 [2/1] [U_] unused devices: <none> mdadm -D /dev/md0 /dev/md0: Version : 1.2 Creation Time […]
我目前有我的服务器安装与Linux软件RAID5(mdamd)。 我有LVM,在逻辑卷上有ext3文件系统。 此设置在外置多驱动器机箱中进行镜像。 我正在考虑切换到Solaris(OpenIndiana)以使用ZFS。 我知道我将不得不删除服务器本身的信息,但是当我完成安装OpenIndiana的时候,我应该把它保存在外部机箱上以便将其传回去。 我想过用FAT32格式化机箱上的驱动器,但是我想知道是否有更好的方法。
这是情况。 我有一个MD设备/ dev / md0,它function完全,但似乎没有LVM元数据。 就我所知道的所有事情而言,它不是卷组的一部分,也不会显示为物理卷。 另一方面,它是一个启动分区,它填充这个function没有问题。 我也可以使其中的一个设备失效,重新添加它们,并重buildarrays没有问题。 为什么那么我在乎呢? 那么,每次我更新grub,我都会遇到一堆“错误:未知的LVM元数据头”消息。 这不是一个问题,但它正在窃听我。 这里有一些细节: # uname -a Linux redacted 3.9-1-amd64 #1 SMP Debian 3.9.6-1 x86_64 GNU/Linux # pvck /dev/md0 Could not find LVM label on /dev/md0 # mdadm –detail –scan ARRAY /dev/md/0 metadata=1.2 name=redacted:0 UUID=Stuff ARRAY /dev/md/1 metadata=1.2 name=redacted:1 UUID=Stuff ARRAY /dev/md/2 metadata=1.2 name=redacted:2 UUID=Stuff # lvscan […]
我有一个RAID 1的服务器。 目前,当我input以下命令: cat /proc/mdstat 我得到: Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] unused devices: <none> 这是什么意思? 服务器工作正常,但为什么不在这里显示RAIDarrays?
我为挂载在/mnt/data上的数据分区configuration了一个RAID-5arrays。 我的系统没有启动( /和/boot在专用驱动器上, 而不是任何RAIDarrays的一部分)。 我通过mdadm(软件RAID)在Ubuntu 12.04上添加了第四个驱动器到我的3个磁盘RAID-5软件arrays。 我的RAIDarrays包含/dev/sdb1 , dev/sdc1和/dev/sdd1. 我用那个命令来添加第四个驱动器: mdadm –add /dev/md0 /dev/sde 然后,我升级了arrays,将其转换成RAID-6 RAID: mdadm –grow /dev/md0 –raid-devices 4 –level 6 –backup-file=backup/raid-backup-file 它工作很好。 服务器工作,并没有启动问题。 唯一的问题是,我看到我添加了第四个驱动器作为整个驱动器。 我应该添加/dev/sde1而不是sde! 为了清理这个,我删除驱动器,并重新添加它,但这次与分区: mdadm /dev/md0 –fail /dev/sde –remove –/dev/sde mdadm –add /dev/md0 /dev/sde1 迁移之后,它工作(arrays是可访问的),除了在下次启动时,由于/ dev / sde丢失(我所有的驱动器都标记为备用),我收到一条消息,说RAIDarrays已经降级,并进入initramfs提示符。 退出该shell之后,服务器将继续启动,而不从我的RAIDarrays挂载数据分区。 login后,我可以停止RAIDarrays,并通过以下方式对其进行重新configuration: mdadm –stop /dev/md0 mdadm –assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 […]
我的RAID6arrays有两个磁盘故障。 我已经添加了两个新磁盘,并执行以下操作: 我运行mdadm / dev / md1 – 在两个磁盘上删除 我在每个磁盘的第一个分区上设置了我的RAID(出于alignment的原因)。 由于replace磁盘alignment相同,我做了一个dd if = / dev / sdg(工作磁盘)= / dev / sde(新磁盘)bs = 512 count = 1在分区布局上复制。 我不知道这是否是正确的做法,因为我可能复制了mdadm超级块数据。 然后我运行mdadm / dev / md1 –add和两个磁盘。 我现在有这个时候我运行mdadm –detail / dev / md1: Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 […]
我目前的mdstat: $ cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] md0 : active raid6 sde[8] sdh[4] sdg[1] sdd[6] sdb[5] sdc[7] 9766914560 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U] unused devices: <none> 这里是mdadm –detail: $ sudo mdadm –detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Fri Apr […]