升级到Ubuntu 9.04后,我的RAID 5arrays不再被正确组装。 现在,从启动开始,它将使用ata-MAXTOR_STM3500630AS_9QG03T0L-part1在/ dev / md0启动一个RAIDarrays,但是这样做是失败的,因为它不是我的整个RAID 5设置。 这在8.10工作正常。 我试过调整下面的configuration。 我想mdadm会跟着我的configuration启动,但似乎有自己的头脑。 如果我停止/ dev / md0,然后重新启动/ dev / md1它有时会干净地启动。 否则,我必须重新添加ata-MAXTOR_STM3500630AS_9QG03T0L-part1到arrays,并开始300分钟的恢复。 尝试: 将数组设置为“/ dev / md0” 使用DEVICE和ARRAYconfiguration文件中的直/ dev / sd [bcde]。 如何让Ubuntu和mdadm在启动时干净地启动/ dev / md1? 我的/etc/mdadm/mdadm.conf: MAILADDR [email protected] DEVICE / dev / disk / by-id / ata-MAXTOR_STM3500630AS_9QG03T0L-part1 / dev / disk / by-id / ata -MAXTOR_STM3500630AS_9QG07KQW-part1 / […]
简单的问题是:initramfs在启动时如何知道如何assemblymdadm RAIDarrays? 我的问题:我启动我的服务器,并得到: Gave up waiting for root device. ALERT! /dev/disk/by-uuid/[UUID] does not exist. Dropping to a shell! 发生这种情况是因为/ dev / md0(即/ boot,RAID 1)和/ dev / md1(即/,RAID 5)未正确组装。 我得到的是/ dev / md0根本没有组装。 / dev / sd2,/ dev / sdc2,/ dev / sdd2,/ dev / sdc,/ dev /开发/ SDD。 要解决这个问题,并启动我的服务器我做到: $(initramfs) mdadm –stop /dev/md1 $(initramfs) mdadm […]
我有一个3磁盘的RAID 5arrays( sdb sdc sdd ) 上个周末,我被提示说sdd失败了。 所以更换了驱动器,把它加回到arrays中,让它重build(1.5TB) 它停在约64%的错误,发现sdb也失败了。 我把sdd映像到一个新的驱动器( ddrescue )和sdb到一个新的驱动器( ddrescue )上。 sdb的副本只有3MB才能复制。 sdb有更多的问题(请注意,我不能得到一个新的驱动器,所以我的图像驱动器实际上大于1.5TB) 试图重新组装以前的驱动器: mdadm -A /dev/md0 /dev/sdb /dev/sdc /dev/sdd 发生错误: mdadm: no recogniseable superblock on /dev/sdb 我也尝试过 – 同样的结果 我也做了一些阅读有关恢复数组完全重新build设,所以我试过: mdadm –verbose –create /dev/md0 –level=5 –raid-devices=3 /dev/sdc missing missing ( sdc是唯一没有失败的驱动器,我打算让arrays启动并添加其他2个驱动器) 这导致: mdadm: RUN_ARRAY failed: Input/output error 我真的在一个不好的地方听到。 我需要大量数据,大约1.2TB的东西,这是最坏的情况!
有没有办法定期validation一个Linux软件RAID是否有效,没有错误? 像一个将扫描所有块并validation它的守护进程。
我的RAID1降级了,我需要更换/ dev / sdb。 但是,我可以将/ dev / sdb5(在/ dev / md1)标记为失败并将其删除,但是我无法对/ dev / sdb1(/ dev / md0挂载在/上)执行相同的操作: root@kes:~# mdadm /dev/md0 –fail /dev/sdb1 mdadm: set /dev/sdb1 faulty in /dev/md0 root@kes:~# mdadm –detail /dev/md0 /dev/md0: Version : 00.90 Creation Time : Wed Apr 7 03:00:39 2010 Raid Level : raid1 Array Size : 975185536 (930.01 GiB 998.59 […]
一台服务器最近从A地运到B地,这是一次长达六个月的漫长旅程。 由于在发货之前没有任何标签,因此出了问题。 是的,我知道 – 这是别人做的,但是我付出了代价。 我必须挽救数据,需要帮助! 系统启动以前罚款,但现在它将无法启动(甚至没有gr rescue救援 – BIOS没有什么,并试图selectarrays中的每个单独的成员)。 所以我从USB盘上从Debian 7 ISO启动,然后进入救援模式。 到目前为止,收效甚微。 我注意到的第一件事是arrays被降级并重build为备用。 这似乎是因为原来的arrays成员之一失踪。 首先,在救援模式下启动后,arrays处于当前状态的细节: # mdadm –detail /dev/md127 /dev/md127: Version : 1.2 Creation Time : Wed Nov 7 16:06:02 2012 Raid Level : raid6 Array Size : 26370335232 (25148.71 GiB 27003.22 GB) Used Dev Size : 2930037248 (2794.30 GiB 3000.36 GB) Raid […]
服务器启动一段时间(〜周/几天)后,服务器将开始读取损坏的数据。 例如,当我重新启动后运行一个文件sha1sum它仍然是一样的。 然而过了一段时间,我将开始得到segfaults,从那时起,每当我读这个文件,我得到一个不同的sha1sum。 我已经检查了很长的testingSMART,我已经运行了一个扩展memtest86 +(12通) 我的lspci如下: 00:00.0主机桥:Advanced Micro Devices [AMD] RS780主机桥 00:01.0 PCI桥:Advanced Micro Devices [AMD] RS780 PCI至PCI桥(int gfx) 00:06.0 PCI桥:Advanced Micro Devices [AMD] RS780 PCI至PCI桥(PCIE端口2) 00:07.0 PCI桥:Advanced Micro Devices [AMD] RS780 PCI至PCI桥(PCIE端口3) 00:11.0 SATA控制器:ATI Technologies Inc SB700 / SB800 SATA控制器[AHCI模式] 00:12.0 USB控制器:ATI Technologies Inc SB700 / SB800 USB OHCI0控制器 00:12.1 USB控制器:ATI Technologies Inc SB700 […]
我正试图find重build软件raid6的瓶颈。 ## Pause rebuilding when measuring raw I/O performance # echo 1 > /proc/sys/dev/raid/speed_limit_min # echo 1 > /proc/sys/dev/raid/speed_limit_max ## Drop caches so that does not interfere with measuring # sync ; echo 3 | tee /proc/sys/vm/drop_caches >/dev/null # time parallel -j0 "dd if=/dev/{} bs=256k count=4000 | cat >/dev/null" ::: sdbd sdbc sdbf sdbm sdbl […]
同步我的postgres主从服务器导致从站(journalctl)写入I / O错误: Aug 18 03:09:23 db01a kernel: EXT4-fs warning (device dm-3): **ext4_end_bio:330: I/O error -5 writing to inode 86772956 (offset 905969664 size 8388608 starting block 368694016)** Aug 18 03:09:23 db01a kernel: buffer_io_error: 326 callbacks suppressed …. 读取受影响的文件当然也不起作用: cat base/96628250/96737718 >> /dev/null cat: 96737718: Input/output error Linux内核(ubuntu 16.04 4.4.0-87-generic)不应该从arrays中自动启动受影响的驱动器吗? 因为它是一个Raid6(上面的LVM和ext4),我已经试图用坏块重写每个SSD几次,以引发错误(从RAID中移除一个接一个的磁盘),不幸的是没有成功。 smartctl说一个磁盘之前有错误(其他都是干净的): smartctl -a /dev/sda ID# […]
我正在使用Debian Jessie。 # uname -a Linux host 4.9.0-0.bpo.3-amd64 #1 SMP Debian 4.9.30-2+deb9u5~bpo8+1 (2017-09-28) x86_64 GNU/Linux 并设置了RAID6。 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [raid1] md0 : active raid6 sda[0] sdd[3] sdc[2] sdb[1] 19532611584 blocks super 1.2 level 6, 512k chunk, algorithm 2 [4/4] [UUUU] bitmap: 1/73 pages [4KB], 65536KB chunk 这是4倍的希捷企业10TB 7200rpm。 从RAIDarrays复制大文件到内部系统磁盘(SSD)时,平均吞吐量为220MB / […]