我有一台由OVH托pipe的服务器,configuration为具有软RAID1arrays/ dev / md0,该arrays包含LVM PV。 还有另一个/ dev / md1数组,应该是/ boot,但是最后还是没有被使用。 今天早上,我从服务器收到很多日志,指出我的/ dev / sdb产生了I / O错误(基本上我猜它已经死了)。 之后我的MySQL崩溃了,我的SSH拒绝了所有的连接。 我别无select,只能重新启动(因为它是一个远程服务器,我无法物理访问)。 当它启动时,正在使用的Web服务器是nginx,它是我最初使用的服务器,但是我前一段时间被Apachereplace。 发现那令人不安的,我马上重新启动到救援模式,并试图平静地检索我的数据,并试图让事情准备好改变我的磁盘。 现在,我已经这么做了,而且我感到吃惊,在做了一个mdadm –assemble –scan ,得到的mdstats是: # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md125 : active raid1 sda1[0] 314571640 blocks super 1.2 [2/1] [U_] md126 : active raid1 sdb1[2] 314571640 […]
本文指出,RAID控制器对于不可恢复的读取错误很敏感,并尝试用组件驱动器的冗余来重写这些扇区。 如果扇区坏,磁盘的固件将透明地重新分配扇区。 Linux MD RAID有类似的function吗? 也许我的Google-Fu很糟糕,但是我找不到任何东西。
收到RAID进入降级状态的消息: Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid1 sda1[0] sdb1[1] 524224 blocks [2/2] [UU] md2 : active raid10 sda5[0] sdb5[1] sdd5[3] sdc5[2](F) 1128864768 blocks super 1.2 512K chunks 2 near-copies [4/3] [UU_U] md1 : active raid10 sda2[0] sdb2[1] sdc2[2] sdd2[3] 41909248 blocks super 1.2 512K chunks 2 near-copies […]
我正在从10个磁盘重塑我的arrays到11降级状态(驱动器我想添加已经有数据,但无处可放)。 2个驱动器在运行时断开(电源问题)。 是否仍然可以恢复这个数组? 电源循环后,我无法再次将它们添加到arrays: mdadm: /dev/md0 has failed so using –add cannot work and might destroy mdadm: data on /dev/sdX1. You should stop the array and re-assemble it. 自重启后,我试过了: – 组装,由于“错误”磁盘而失败 – 组装 – 强制,失败: md: sdl1 does not have a valid v1.2 superblock, not importing! md: sdk1 does not have a valid v1.2 superblock, […]
我有一个raid1安装debian 7软件mdadm在2个磁盘上。 我想在这里分裂成2个独立的系统,并能够多引导它们。 我想,当我从第一个驱动器运行系统,我可以做: mdadm / dev / md0 –fail / dev / sdb1 – 删除/ dev / sdb1 这会导致sdb1从数组中移除(即使在重新启动后也不会被重新同步)。 然后删除第一个驱动器,然后执行: mdadm / dev / md0 –fail / dev / sda1 – 删除/ dev / sda1 在第二次启动时。 这是足够的还是我必须清除突袭超级块? 我不希望来自两个系统中的任何一个的复制都会突然中断其他磁盘。 谢谢
我有我的根文件系统在/ dev / sdc和一个软件RAID 1跨越/ dev / sda和/ dev / sdb(我认为)。 我身体上移动了我的电脑,今天运行了软件更新(这些都可能是罪魁祸首),然后注意到我的RAIDarrays不再可用。 我看到mdadm已经标记为不活动,但我不知道为什么。 我也无法安装它。 我在那里看到其他的build议,但是没有一个和我的情况完全一样,我担心会丢失数据。 我没有编辑任何configuration文件,这个configuration以前是工作的(除了RAID没有自动安装,这并没有打扰我很多)。 编辑 :我还应该提到,当我build立机器时,我最初尝试设置软件RAID,出了问题,我想我不小心摧毁了RAID上的数据,所以我build立了另一个软件RAID,并且一直使用它。 我相信这是两个参赛作品的原因。 而现在,我看着它,看起来我的数据甚至可能不会被镜像到两个驱动器上? 每个驱动器上只有两个独立的RAID 1? 编辑2 :看起来像/ dev / sdb是基于当前更新时间的RAIDconfiguration,而由/ dev / sda1和/ dev / sdb1组成的RAID是旧configuration,其更新时间为2月当我build立这个。 cat / proc / mdstat root@waffles:~# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md127 : inactive sda1[0](S) […]
我有3个驱动器在一个RAID6的一个星期内失败。 幸运的是,一个驱动似乎是大多数罚款。 我能够运行ddrescue并且复制除了一个小区域以外的所有内容(无法从3TB中读出14MB)。 但是,当试图组装使用克隆的驱动器的arrays(删除原来的)后,我收到一些问题( sdm是克隆的驱动器): # mdadm –assemble –scan –force /dev/md127 mdadm: failed to add /dev/sdm1 to /dev/md127: Invalid argument mdadm: failed to RUN_ARRAY /dev/md127: Input/output error 检查驱动器显示正常: # mdadm -E /dev/sdm1 /dev/sdm1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 9112a098:66dde535:f258911c:3af7e312 Name : cstor2.localdomain:127 (local to host cstor2.localdomain) Creation […]
我一直在设置raid1arrays,并使用默认选项cryptsetup设置encryption媒体。 RAIDarrays应该使用2个驱动器,但目前,我只在每个RAID1arrays中有1个驱动器,以比较它们之间的性能。 性能 未encryption的数组 写性能 dd if=/dev/zero of=/media/storage/Temp/test.img bs=100M count=10 10+0 records in 10+0 records out 1048576000 bytes (1.0 GB) copied, 7.35153 s, 143 MB/s 最高输出: top – 10:30:02 up 2 days, 19:18, 2 users, load average: 0.00, 0.16, 0.72 Tasks: 147 total, 3 running, 144 sleeping, 0 stopped, 0 zombie %Cpu(s): 0.1 us, 21.4 […]
我想重新格式化/ dev / md0,这是一个由4个磁盘(sd [bcde])组成的RAID0arrays。 但是,当我试图运行命令mke2fs,我收到以下错误信息: /dev/md0 is apparently in use by the system; will not make a filesystem here! 我也尝试了mdadm – 停止它,但它没有工作: mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group? 仅供参考,/ dev / md0未安装,并且lsof / fuser的输出仅为空。 有什么想法吗? [UPDATE1] lsblk的输出如下所示: NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT […]
在Debian 8安装过程中,我正准备一个装有4个磁盘的服务器。 系统configuration后不久,SMART检测到一个脱机不可纠正的扇区错误,因此我认为在服务器仍在testing平台上时更换可能发生故障的磁盘是一个好主意。 但是,其中一台MD设备仍在重build,估计一个月左右的完成时间。 主要的问题是: 安全/正确的手动失败,并从数组中删除磁盘,而仍然同步? 有4个500 GB的SATA每个分为4个分区,并组装成4个RAID5设备md [0-3]。 整个过程看起来,我假设,这样(我宁愿做一个磁盘热插拔的好奇心,以防万一我必须做一个现场服务器有一天): 在所有的mdX设备上都失败了 从arrays中删除驱动器 物理更换驱动器 rescan sata如果需要echo "0 0 0" >/sys/class/scsi_host/host<n>/scan 使用sfdisk复制分区表,例如sfdisk -d /dev/sda| sed 's/sda/sdc/'| sfdisk /dev/sdc sfdisk -d /dev/sda| sed 's/sda/sdc/'| sfdisk /dev/sdc 添加驱动器到相应的mdX设备