我正在用KVM和LVMbuild立一个新的虚拟化服务器。 KVM主机和所有客人将安装在SSD驱动器上。 每位访客都可以访问由4x3TB SATA驱动器组成的RAID10arrays,用于数据和存储。 我的问题是,我有很多空间(6TB可用),我现在不需要。 一种方法是首先用mdadm创build一个大的6TB空间,然后创build一个大的LVM卷组,然后通过创build逻辑卷来“分割”它们。 另一种方法是,首先将每个硬盘驱动器(3TB)拆分为四个0.75TB的主分区(sdx1,sdx2,sdx3,sdx4,x = a,b,c,d)和fdisk。 然后我可以使用 mdadm –verbose –create / dev / md1 –level = 10 –chunk = 256 –raid-devices = 4 / dev / sda1 / dev / sdb1 / dev / sdc1 / dev / sdd1 在这种情况下,/ dev / md1将是1.5TB的RAID10arrays,可以形成一个LVM卷组,然后创build逻辑卷。 如果我将来需要更多的空间,我可以创build/ dev / md2等等。 / dev / md1,/ dev […]
我昨天有一个问题,软件Raid,其中一个磁盘不得不被replace。 我使用从数组中删除分区 mdadm /dev/mdx -r /dev/sdbx 在失败的驱动器被托pipe中心取代后,我将分区表应用到新磁盘(sdb是坏设备) sgdisk -R /dev/sdb /dev/sda 给它一个新的ID: sgdisk -G /dev/sdb 然后我再次添加所有的分区使用: mdadm /dev/mdx -r /dev/sdbx 除了一个分区之外,这个分区很好,在几个小时之后大概保持在60%,这是当前的突袭状态: cat /proc/mdstat Personalities : [raid1] md5 : active raid1 sda6[0] sdb6[2](S) 2633910528 blocks super 1.2 [2/1] [U_] md4 : active raid1 sda5[0] sdb5[2] 16768896 blocks super 1.2 [2/2] [UU] md3 : active raid1 sda4[0] […]
我有一个RAID5arrays,我试图增加一个磁盘来增长arrays,它似乎卡住了。 我发现在类似的问题上的所有types的线程,但似乎无法find一个明确的解决办法。 基本上,我这样做了: mdadm –grow –raid-devices=6 –backup-file=/root/grow_md0.bak /dev/md0 现在,我得到: [root@server ~]# cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 sdg1[7] sde1[3] sdd1[5] sdc1[6] sda1[2] sdb1[0] 15627540480 blocks super 1.2 level 5, 512k chunk, algorithm 2 [6/6] [UUUUUU] [>………………..] reshape = 0.0% (4096/3906885120) finish=362200428.2min speed=0K/sec 注意0k /秒的速度。 现在,4096最初是1024.我尝试了这个build议: mdadm –grow –continue –backup-file=/root/grow_md0.bak /dev/md0 […]
我正在使用mdadm在CentOS 5.5上构build一个带有3个1.5TB驱动器的raid 5arrays。 一切似乎都工作正常,除了它是永久的,我不知道这是否正常。 现在是6个小时,而/ proc / mdstat说只有6%(@〜37MBps)。 按照这样的速度,一周的半个月就能完成了。 我从来没有设置过袭击,所以我不知道我是否做错了什么。 由于没有任何驱动器上的数据,因此似乎初始设置应该快很多。 另外,在我设置了raid后,我有数据从驱动器转移过来,然后我将它添加到数组中。 是否需要花费相似的时间来增长arrays? 我知道他们是巨大的硬盘驱动器,但这似乎是荒谬的。
我有一个分区躺在软件RAID设备/ dev / md4上 在启动时,fsck失败,分区不能被挂载。 试图手动fsck,我得到一个错误: sudo fsck / dev / md4 fsck from util-linux-ng 2.17.2 e2fsck 1.41.11(14-Mar-2010)fsck.ext4:设备或资源忙于尝试打开/ dev / md4文件系统被另一个程序? sudo lsof / dev / md4没有输出… 有没有办法强制在md设备上的fsck?
/ proc / mdstats将一个设备标记为closures,注意到一个降级的raid。 所以我想设置错误的驱动器故障,并重新附加它。 不知怎的,我得到了错误的驱动,离开了我一个unworking raid。 我试图用–assume-clean重新创buildraid,但是这不起作用。 我能做些什么来恢复我的数据? 如下图所示,似乎sdd仍然包含了关于退化RAID信息的超级块。 raid5包含一个cryptsetup luks分区。 [root@archiso ~]# mdadm –examine /dev/sda1 /dev/sda1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : d0e85136:224b9fce:71d459c2:3d4c7c82 Name : archiso:0 (local to host archiso) Creation Time : Thu Sep 9 09:26:17 2010 Raid Level : raid5 Raid Devices : 4 […]
本着LVM镜像VS RAID1的精神,我认为我会更进一步。 假设我有4个相同的硬盘驱动器(例如1TB),我想在RAID设置备份/媒体服务器。 在顶端的LVM似乎是目前resize的最佳做法,但是RAID布局呢? 我的select似乎是: 2个1TB RAID1集与LVM连接 2个1TB的RAID1集合LVM条纹 1个2TB RAID10(条纹2个1TB),上面装有LVM 1个2TB RAID6(条纹2x1TB,2个1TB奇偶校验),LVM在上面 RAID-on-LVM听起来太疯狂了,不值得研究,但是如果有人能够使用它,我会很感兴趣。 这些中的每一个如何在场景中执行 I / O负载将是低但恒定(例如videostream)和高但突发(例如备份系统)的组合, 驱动器很可能会意外死亡 我想一次升级(增加驱动器1或2的容量) (不再相关) 在未来的某个时候,我可能想要在RAID1中增加另外两个硬盘到LVM 你对这些RAIDconfiguration有什么build议/经验?
我正在通过四个iSCSI目标创build一个RAID 10arrays。 我想手动控制所有的东西,所以我可以通过心跳来运行它。 我已经取消了/etc/rc#.d/中的open-iscsi和mdadm脚本的链接,但是raid数组在启动时仍然被重新创build。 一旦服务器启动,我必须做一个mdadm –stop / dev / md0,然后停止/etc/init.d/mdadm,以确保它不会再启动它。 我从/etc/mdadm/mdadm.conf注释掉了我的数组,但稍后它只创build了一个新数组。 我怎样才能把mdadm放到一个手动的过程中,所以当我告诉它的时候它只试图启动或者重build数组?
你好,我在Debian Squeeze Linux上创buildswraid,有非常奇怪的问题。 我开始从现有的单一驱动器的Debian标准安装中创buildRAID1。 所以我买了新的驱动器,并开始遵循这个教程: http://www.howtoforge.com/how-to-set-up-software-raid1-on-a-running-system-incl-grub2-configuration-debian-squeeze 一切顺利,我创build了新的驱动器的初步突袭。 然后,我成功启动这个新的驱动器,并添加我的旧驱动器到这个arrays。 旧的驱动器成功地同步到袭击。 而且毕竟设置我准备好最后重新启动到我的新Raid1arrays。 但突然驱动器arrays想要启动。 Grub需要很长时间才能启动(打印一些关于fd0读取错误的错误消息)。 当我从菜单中selectdebian开始加载非常缓慢,并停止消息,没有findmd0。 在grub shell中,我发现只有/ dev / md,没有/ dev / md0或/ dev / md1。 经过几个小时的审判,我Finnaly设法得到团队工作。 使用ugky黑客。 我不得不补充: mdadm -A –auto=md /dev/md0 在正确的地方: /usr/share/initramfs-tools/init 并重build我的内核的initrd.img 这个命令启动我的Raid并创build/ dev / md0和/ dev / md1。 但它的安静丑陋的黑客,我不认为它非常稳定。 此外它可以打破未来的一些更新。 所以我的问题是为什么我需要在初始化脚本中的这种变化? 我的数组有什么不好吗? 如何解决它? 感谢所有的提示。 我现在很安静,我整晚都在(12小时)。 至
我有一个生产RAIDarrays,碰到问题。 幸运的是,当我configuration它时,我分配了一个热备份。 以下是现在的状态: mdadm –detail /dev/md2 /dev/md2: Version : 0.90 Creation Time : Sun Jul 4 14:49:33 2010 Raid Level : raid5 Array Size : 3907039744 (3726.04 GiB 4000.81 GB) Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Raid Devices : 5 Total Devices : 6 Preferred Minor : 2 Persistence : Superblock is […]