我有两个RAID 10卷,其中/ dev / sda上只有一个分区被踢出两个卷之一。 这里是/ dev / mdstat(在恢复过程中): md1:active raid10 sda3 [4] sdd3 [3] sdc3 [2] sdb3 [1] 11719732224 blocks super 1.2 512K chunk 2 near-copies [4/3] [_UUU] [=========== ========>。]恢复= 97.7%(5725121408/5859866112)完成= 100.5分钟速度= 22334K /秒 md0:active raid10 sda2 [4] sdd2 [3] sdc2 [2] sdb2 [1] 1043456块超级1.2 512K块2近似副本[4/4] [UUUU] 根据以下内核消息,我发现只有21个读取错误后,sda3分区从md1被删除: Apr 17 14:25:05 someserver kernel:md / […]
我有一个设置与三个相同的硬盘,被识别为sdb,sdd和sde。 我在这三个磁盘上有一个RAID0分区(md0)和两个RAID5分区(md1和md2)。 我所有的RAID分区似乎都正常工作,并且自创build它们以来就已经这样做了。 我在控制台上看到关于md [12]的消息“正在使用3个设备中的2个”,这对我来说听起来像是一个问题。 $ cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [raid0] [linear] [multipath] [raid1] [raid10] md2 : active raid0 sdb3[0] sdd3[1] sde3[2] 24574464 blocks super 1.2 512k chunks md1 : active raid5 sdd2[1] sde2[3] 5823403008 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU] md0 : active raid5 sdd1[1] sde1[3] […]
//问题:当我将sda3添加到/ dev / md3时,两个磁盘的速度降低了…..很多它减less到100k〜 1.-这将是因为服务器运行在正常模式,并且所有的服务正在运行….? 像MySQL,Apache,JSON等… 2.-是一些连接器坏了? 3.-configuration不好? 我试着修改speed_limit_min 4.-硬盘是新的,只有复制结构,我使用的命令是 sfdisk -d /dev/sdb | sfdisk /dev/sda 5.-也许硬盘不兼容raid1? //Command for add sda device mdadm –manage /dev/md3 –add /dev/sda3 // check status of resync # cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md3 : active raid1 sda3[2] sdb3[0] 970470016 blocks [2/1] [U_] […]
我最近将Ubuntu 16.04上的镜像mdadm分区转换为zfs镜像池,所以我想。 在使用zfs池几天后,我重新启动了系统,zfs池消失了。 “zpool list”没有列出丢失的zpool。 它只列出了我有的另一个zpool。 我的问题是: 我可以恢复丢失的ZFS池吗? 如何从mdadm中完全删除分区,所以这不会再发生? / proc / mdstat使用我用于zfs池的分区显示一个新的md设备: md127 : inactive sdb3[1] sda3[0] 2047737856 blocks super 1.2 在尝试将此设备转换为ZFS之前,它显示在/ proc / mdstat中,如下所示: md3 : active raid1 sdb3[1] sda3[0] 1023868928 blocks super 1.2 [2/2] [UU] bitmap: 0/8 pages [0KB], 65536KB chunk 为了把分区转换成ZFS,我做了: 注释掉/etc/mdadm/mdadm.conf中的条目 使用mdadm命令停止RAID分区(我没有记下我使用的确切命令)。 /etc/mdadm/mdadm.conf包含: # mdadm.conf # # Please refer to […]
我有多个使用许多小文件创builddynamic网页的networking服务器。 caching网页不是一个选项。 networking服务器也执行写入,所以我需要一个同步文件系统。 我期待最大限度地提高性能,因为据我所知,小文件是集群文件系统在以太网上的弱点(在不同程度上)。 目前我正在使用Centos 5.5,64位。 由于它只有大约300MB的数据,我正在使用带有GNBD的RAID-1和使用“–write-mostly”选项的本地硬盘来查看mdadm,以便使用本地硬盘完成读取操作。 这可能吗? 如果是这样,是否有任何优势,使其成为一个tmpfs磁盘,而不是本地硬盘? 或者,本地硬盘上的文件只是caching在RAM中,所以我不会看到使用tmpfs的性能增益,假设有足够的内存可用?
我的一个磁盘在我的RAIDarrays中失败了: cat /proc/mdstat : Personalities : [raid1] md1 : active raid1 sda2[2](F) sdb2[1] 488086720 blocks [2/1] [_U] md0 : active raid1 sda1[0] sdb1[1] 192640 blocks [2/2] [UU] 当我试图删除然后重新添加驱动器发生以下事情: mdadm: hot removed /dev/sda2 host:# mdadm /dev/md1 –add /dev/sda2 mdadm: add new device failed for /dev/sda2 as 2: Invalid argument fdisk -l /dev/sda什么都不返回。 你能告诉我现在发生了什么,尤其是因为md0看起来不错。 试图谷歌它,但没有什么有趣的出现。 更新(仅用于逐字),现在md0也失败了: Personalities […]
我有一个6设备raid 5arrays有1个磁盘坏了,然后由于停电,机器关机,当它开始时,所有的磁盘显示为备用以下mdadm -E输出。 /dev/sda5: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : b480fe0c:c9e29256:0fcf1b0c:1f8c762c Name : GATEWAY:RAID5_500G Creation Time : Wed Apr 28 16:10:43 2010 Raid Level : -unknown- Raid Devices : 0 Avail Dev Size : 976768002 (465.76 GiB 500.11 GB) Used Dev Size : 976765954 (465.76 GiB 500.10 GB) […]
使用Linux mdadm,我已经安装了六个磁盘raid10,f2arrays。 我正在使用7200RPM SATA驱动器。 我担心的最大负担是logging四个实时videostream(最糟糕的情况下是每个20Mbits,最后的文件大小最后是10GB),同时观看另一个先前保存的文件(类似的特性)。 我已经看到在录像中出现故障,似乎是丢帧。 我怀疑我的RAIDarrays没有跟上,但我想知道更多具体是怎么回事。 它要求太多吗? 是否有一些随机等待? arrays中是否有一个特定的设备需要比其他设备长的时间? 我应该使用什么样的工具,我应该收集哪些信息,以及如何解释? 理想情况下,我想要收集数据几天,然后我可以回去看看,但如果这是不可能的,更多的实时快照types的工具也可以工作。
昨天晚上,我收到了一封来自mdadm的关于我arrays中两个驱动器可能发生故障的电子邮件。 RAIDarrays被设置为4个2TB驱动器raid5和一个热备份。 这个系统真的炸了吗? 热腾腾的东西有没有拿起,或两个驱动器一次失败? 有一个驱动器出现故障,开始重build到备用状态,然后导致另一个驱动器故障? 我对于raid的工作还很陌生,而且这个系统是我从以前的员工那里inheritance下来的,所以我不确定这里的正确的故障排除步骤。 任何帮助将非常感激。 cat / proc / mdstat的输出: sudo cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] md0 : active raid5 sdc[4](F) sdd[5](F) sda[6](S) sdb[0] sde[3] 5860543488 blocks level 5, 64k chunk, algorithm 2 [4/2] [U__U] mdadm的输出–detail: #sudo mdadm –detail /dev/md0 /dev/md0: Version : 0.90 Creation Time […]
我不得不在周日打开我的文件服务器的房屋,以取代有问题的粉丝。 我没有看到的是,其中一个SATA电缆没有正确连接。 重启后我做的第一件事是检查RAID状态,并立即显示一个驱动器丢失。 到目前为止,该设备还没有使用(但是它被安装了,所以我不能100%确定系统什么都不做)。 我停止md0并重新插入电缆: mdadm –stop /dev/md0 poweroff 再次重新启动后,我检查了删除的驱动器 mdadm –examine /dev/sdd1 … Checksum : 3276bc1d – correct Events : 315782 Layout : left-symmetric Chunk Size : 32K Number Major Minor RaidDevice State this 0 8 49 0 active sync /dev/sdd1 0 0 8 49 0 active sync /dev/sdd1 1 1 8 65 1 […]