我只是检查了我的Raid10状态,它说“干净,退化”为什么呢? 没有退化坏事或什么东西? 我有一个坏的磁盘“/ dev / sdd”,所以我replace了他,点击“恢复”,它已经完成,直到100%。 但是现在它还在退化,好像另一个磁盘从RAID中丢失了。 View post on imgur.com 细节: 版本:1.2创build时间:2016年4月12日16:19:22 Raid级别:raid10数组大小:21487212032(20491.80 GiB 22002.91 GB)使用开发大小:1953382912(1862.89 GiB 2000.26 GB)Raid Devices:22设备总数:21持续时间:超级块是持久的 更新时间:Sun Mar 26 22:39:05 2017状态:干净,降级活动的设备:21工作设备:21失败的设备:0备用设备:0 布局:近= 2块大小:512K 名称:storage02off:storage02off(本地到主机storage02off)UUID:12ec260e:98e29218:c957740e:0e958366事件:154450 数字Major Minor RaidDevice状态23 8 16 0活动同步/ dev / sdb 1 8 32 1活动同步/ dev / sdc 26 8 48 2活动同步/ dev / sdd 3 8 64 […]
在操作系统和启动驱动器的安装过程中,我有一个configuration为使用MD RAID的盒子。 这是奇怪的/dev/md0p#结构混淆了我。 安装程序生成/dev/md0p1 ( /boot ), /dev/md0p2 ( /var/lib/mysql ), /dev/md0p3 ( / ), /dev/md0p4 ( extended ), /dev/md0p5 ( swap ) 我注意到这是从CentOS 6 DVD中为所有物理安装的机器做的。 如何增加/dev/md0p3的大小? 我需要扩展这个根分区。 我觉得我需要删除/dev/md0p3 , /dev/md0p4 , /dev/md0p5分区,然后用额外的空间为/dev/md0p3创build一个新分区。 我不在乎p4和p5,因为它们不包含实际的数据。 我可以在事后创build它们。 我对删除分区和添加/dev/md0空间的顺序感到困惑。 fdisk -l显示驱动器/dev/sda , /dev/sdb ,最后显示所有子分区的/dev/md0 。
我的RAID1arrays中存在故障驱动器(SMART错误,数据损坏)。 我已经标记为失败,并使用mdadm从数组中删除它: # mdadm –manage /dev/md0 –fail /dev/sdb1 # mdadm –manage /dev/md0 –remove /dev/sdb1 mdadm: hot removed /dev/sdb1 # cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid5] [raid4] [raid6] [raid10] md0 : active raid1 sda1[0] 24418688 blocks [2/1] [U_] unused devices: <none> 此时,故障驱动器(sdb)不应再以任何方式被系统安装或使用,对吗? 是否现在安全地写入testing,并使用dd或badblock清除而不从服务器中删除它?
root@RS3617RPxs:~# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [raidF1] md3 : active raid10 sde3[8] sdl3[7] sdk3[6] sdj3[5] sdi3[4] sdh3[3] sdg3[2] sdf3[1] 15608786176 blocks super 1.2 64K chunks 2 near-copies [8/8] [UUUUUUUU] md2 : active raid1 sda3[0] sdb3[1] 971940544 blocks super 1.2 [2/2] [UU] md1 : active raid1 sda2[0] sdb2[9] sde2[1] sdf2[2] […]
使用5 x 2TB Seagate Greens构build一个带有Ubuntu 11.04的NAS盒子和一个RAID6 MDADMarrays。 我注意到这个arrays在导致崩溃的那个月里变得有点慢了。 崩溃的日子吨文件夹丢失。 重新启动的服务器。 启动后,/ mnt / NAS将无法安装。 我能够确定的是,5个驱动器中的2个(好的)事件计数是相同的。 第三场比赛大约有85场比赛,第四场比赛是几场比赛,第五场比赛几乎没有几万场比赛。 从估计,这意味着第三驱动器退出arrays右前我重新启动,第四可能几个月前,第五..以及… 驱动器没有点击,似乎都在良好的机械顺序。 我相信可能有大量的CRC。 我已经买了3个新的驱动器,并计划如何将2个好的和3个最接近的驱动器映射到新的驱动器上,这样我就可以和他们一起玩,而不会引起更多的问题。 我很善于遵守指示,但在做什么的时候却相对愚蠢。 很多年前,我在网上跟随指南来build立这个arrays,但是比这个更细节。 有人可以指导我如何弄清楚哪些3/5驱动器克隆(我打算使用http://hddguru.com/software/HDD-Raw-Copy-Tool/在Windows上使用USB3 SATA适配器复制驱动器盒),然后一旦完成,我可以做什么来尝试修复和重新安装arrays。 以下是我收到的一些build议,但是我很难理解它。 在你做任何事情之前,磁盘映像都是这些。 mdadm可以被迫重新添加一个失败的驱动器,把它当作好的,IIRC。 我不记得确切的命令了,但manpage是…哦,是的,巨大的。 基本上,你需要select三个最好的驱动器,删除最差的两个驱动器,强制标记最好的三个驱动器(重新添加)在每个驱动器上的mdadm元数据,并将其他两个标记为已删除。 如果驱动器再次从arrays中退出,则可能需要对损坏的扇区进行一些覆盖。 如果您识别出不可读的扇区,则可以使用hdparm发出ATA重新分配,或者只需用dd写入一个块,即可强制驱动器重新分配扇区。 对于mdadm而言,它会有一个错误的CRC,但是它不会超时。 那么我想你可能会读al
我有一个物理linux服务器,我正在考虑移动到在独立的Hyper-V R2pipe理程序上运行的虚拟linux服务器。 这个盒子上有很多未使用的周期可以与其他机器共享。 通常这是一个非常简单的select,但是这个特定的服务器正在托pipe一个mdadm raid5arrays。 一旦我运行了类似的linux虚拟服务器,有没有办法将构成arrays的光盘添加到虚拟机上并直接使用它们? 换句话说,我不想将它们全部转换为虚拟光盘,然后重新构buildarrays; 我想用一种“通过”模式来使用现有的光盘和分区。 该arrays工作得很好,我不想通过所有的I / O把它们从光盘上移到新的,虚拟的。 Hyper-V支持一种叫做“passthrough”的模式,那会有诀窍吗?
我有一个使用4个活动磁盘和1个备用的Ubuntu 8.10软件RAID5设置。 备用磁盘有三个分区,其中一个专用于备用function。 我正在使用备用磁盘上的第二个分区作为mdadm命令行中的–bitmap选项指定的写入意图位图文件的起始位置。 每当我重启后执行一个mdadm –detail -v /dev/md2 ,它就不能显示意图位图。 我必须手动执行mdadm命令才能再次获取Intent位图。 我主要担心的是,磁盘可能会在电力中断的情况下失败,然后,当机器重新启动时,磁盘将开始重新同步到备用磁盘,但不会注意到意图位图。 可以使用mdadm(或mdadm.conf或任何其他configuration文件)指示mdadm或Ubuntu在重新启动时设置写意图位图吗? 这将有助于从一个不一致的状态快速过渡到一致的清洁状态吗? 对于外行:写意图位图是一个小文件,用于跟踪将要放置在RAID上的预期写入,因此,如果写入没有完成到所有的磁盘,处理器只需要寻找那些扇区写入不完整,以确保磁盘之间的一致性。 如果没有这个文件,所有的曲目都被视为可疑的,而一个数据密集型的操作需要(几小时,几天?)开始使所有内容保持一致。
我刚刚完成构build我的新服务器,当我从raid1中丢失了所有数据后,由于尝试重新挂接磁盘,所以我清理了所有数据。 我已经使用了相同的磁盘,并创build了一个新的arrays,其上有ext3,但恢复备份后,我发现复制到新的RAIDarrays的文件已损坏,似乎主要是我的音乐collections,尤其是大文件,如.flac和.ape文件。 我初始化使用Samba从我的ubuntu karmic台式机上复制文件,但是当我碰到上述问题时,我尝试了NFS,而发生了同样的事情。 根据fsck,文件系统似乎很好。 服务器是采用2Gb ram的Intel Atom 330(Intel D945GCLF2主板),运行的是Ubuntu 9.04 amd64版本。 我不知道什么可能会导致这个问题,并会欢迎一些build议,甚至一种方法来检查每个文件的完整性,作为其复制到哪里看什么失败。
好的张贴在这里希望有人可以帮助.. 所以我build立了一个4×1.5TB的RAID6arrays。 得到它和一切。 它工作正常。 我复制了另外两个值得Data的驱动器,然后将这两个驱动器放到数组中。 有几个打嗝,但否则它运作良好,并采取永远。 我今天复制了最后一批数据,然后按照相同的步骤把它放到数组中,然后做了“等等等等”的命令,以保持对重塑的持续关注,因为为什么不这样做。 ….这是很好,也许10-11%,我注意到它..不再更新。 这发生了正确的,因为我正在通过networking从arrays文件系统看东西,然后突然locking。 我以为也许有一些事情对watch命令很敏感,所以我把它杀死了,只是从cmdline做了cat /proc/mdstat 。 什么都没有 没有输出或任何东西,光标沿着一条线但没有其他事情发生。 如果我尝试一个mdadm –detail /dev/md0 ,同样的事情。 什么都没发生。 如果我尝试在数组的挂载目录里面,我得到了根目录,但是当我试图深入挖掘文件夹时,ls和前两个命令做同样的事情,并locking,除了我甚至不能ctrl-c出来了。 我认为是造成这个问题,是我显示像状态D的Smbd进程,这是必须从我正在观看video文件时,剩下来,它locking..当然我不能杀了他们,系统将不会让我。 我当然现在非常偏执,总觉得事情完全是梨形的,我会失去一切,我不想重启,因为我不知道这是否会打破任何东西。 编辑:好..如此: 我重新启动(我实际上已经closures机器,它不会死。) 我发现这个: http : //www.linuxquestions.org/questions/linux-server-73/raid-5-mdadm-grow-interrupted-what-to-do-next-602671/ 我试过了,没有运气。 我明白了 mdadm: superblock on /dev/sdb1 doesn't match others – assembly aborted 当我在任何驱动器上执行mdadm -E时,我会得到: /dev/sdb1: Magic : a92b4efc Version : 00.91.00 UUID : 3c455e64:c4d0d230:c109596b:d7e29b7e Creation Time : […]
我正在使用Debian Squeeze设置一个全新的文件服务器。 我有一个混合安装的磁盘,其中有500GB x 4和1TB x 3所有的SATA和一个小型的2GB的Transcend IDE闪存模块用于基本操作系统安装。 我想从500GB驱动器中安装两个RAID-0,然后使用这两个RAID设备和1TB驱动器来制作一个大的RAID-5arrays。 也许这会更清楚: RAID-0 md0 = sda1 & sdb1 (Formatted to Linux Auto-raid) RAID-0 md1 = sdc1 & sdd1 (Formatted to Linux Auto-raid) RAID-5 md2 = md0, md1, sde1, sdf1, sdg1 (Formatted to Physical LVM) LVM: /var (1GB) /tmp (1GB) swap (2g) /data (rest of space) (我意识到这个设置是有点奇怪,你可能有很多问题,它的设置方式,但这是最好的select,我已经给出了磁盘的当前情况和这些磁盘上的数据所在的位置) 启动Debian安装程序到达分区程序,我可以创build最初的两个RAID-0设备,但是当我尝试将这些设备格式化为“Physical […]