我在lvm逻辑卷上有一个raid0 / 1。 我调整了逻辑卷的大小。 现在我想调整RAID来使用完整的逻辑卷。 这可以用来完成 mdadm /dev/md? –grow -z newsize 当我只做 mdadm /dev/md? –grow 我得到mdadm: no changes to –grow 但不知何故,我不知道如何计算newsize参数。 有没有办法告诉mdadm成长到最大可能的规模? 如果不是的话,我该如何计算用于newsize参数的最大可能的raid大小?
我正在使用mdadm在两个磁盘上创build一个raid1镜像。 我可以使用这些工具完美地创build我的/ dev / md5数组,但是当我重新启动时,它不会自动重新加载我的/ dev / md5,我需要手动重新创build数组。 我在这里错过了很明显的东西吗
我正在RAID5中的4x1TB磁盘上运行我的存储服务器。 这里没有问题,不乏速度,不乏performance。 但是现在这些磁盘已经没有空间了,我有以下解决scheme: 购买一些额外的1TB磁盘添加到RAID5arrays。 (不是面向未来的小磁盘) 购买4x2TB磁盘,replace当前的RAID5arrays(明年有相同的“自由空间”问题) 像当前RAID5设置一样的未知解决scheme; 在未来我可以添加更大的驱动器而无需重build整个磁盘arrays,或者我不应该replace所有磁盘以使用这些磁盘的全部容量。 (我在Ubuntu上运行一个mdadm) 所以我的问题是3号; 有任何想法吗?
将RAID6转换为RAID60很容易吗? 现在,我有一个8驱动器的RAID6。 我正在升级到一个3U 16-bay系统,并考虑使用16个驱动器的RAID60。 是否有可能将我的驱动器移到新系统启动RAID6,然后将其扩展到RAID60时,我添加了8个新的驱动器? RAID60只是两个带有条纹的RAID6arrays,如果我build立一个新的RAID6,然后将RAID0添加到新的和现有的arrays上,会发生什么? 我会丢失现有RAID6上的所有数据吗?
我有一台以前在CentOS 5.5(/ dev / sda和sdb)下安装了Software RAID1的服务器。 我添加了两个额外的驱动器到服务器,并试图重新安装CentOS。 CentOS安装程序看到两个新驱动器正常(sdc和sdd),但它没有看到两个原始驱动器sda和sdb作为单个驱动器。 相反,它只显示驱动器/ dev / mapper / pdc _…(型号:Linux device-mapper)。 基本上我需要做的是从这些驱动器剥离所有RAIDconfiguration,并允许安装程序将它们看作单独的物理磁盘。 我已经尝试了除原来的驱动器之外的所有驱动器,安装一个最小的CentOS和运行dmraid -r -E,但它仍然看到旧的RAID分区。 CentOS安装选项(删除以前的分区等)似乎没有工作。 提前致谢
从mdadm手册页: “在创buildRAID5arrays时,mdadm会自动创build一个具有额外备用驱动器的降级arrays,这是因为将备用arrays构build到降级arrays中通常比在非降级但不干净的arrays上重新同步奇偶校验要快。这个特性可以用–force选项覆盖。“ 所以我有4个硬盘我想要放入一个数组…我使用的方法指定使用其中的一个作为'备用'… 又名: mdadm –create –verbose / dev / md0 –level = 5 –raid-devices = 3 / dev / sdb1 / dev / sdc1 / dev / sdd1 –spare-devices = 1 / dev / sde1 我不明白的是为什么发生这种情况,我的假设是,我最终会得到一个3驱动器arrays和一个热备份…如果我不想这样做,我想要一个4驱动器arrays,我看到我可以用-force选项来做 我只是想知道为什么这是默认的,如果我错过了什么… 提前致谢。
我有一个由3个磁盘组成的RAID5,其中一个坏了。 我想知道是否可以将这两个磁盘转换为RAID1,而不会丢失数据,也不需要在别处备份数据。
我有一个两个磁盘,从mdadm设置的RAID 1。 长话短说,事实certificate这台服务器有一个实际的RAID控制器,所以硬件RAID将比软件RAID更可取。 另外,软件RAID有意外的断开连接到磁盘2,这会将其降级到降级模式。 所以我们想尝试一下硬件RAID。 然而,在我们走这条路线之前,我们想撤销RAID,只让操作系统从单个磁盘上运行。 我的问题是,我怎么能有效地做到这一点? 我猜我需要编辑我的/ etc / fstab文件,该文件目前已安装在/ dev / md0上。 我也猜测,grub将不知何故必须更新? 我不确定我还需要做什么或以什么顺序来做这一切。 我的第一个倾向是从一张Live CD启动,并且从磁盘1到磁盘2的date是一个确切的镜像(RAID镜像已经退化了一会儿),然后从那里开始。 我正在运行Ubuntu服务器。 感谢您的任何build议。
我有一个服务器与mdadm raid0: # mdadm –version mdadm – v3.1.4 – 31st August 2010 # uname -a Linux orkan 2.6.32-5-amd64 #1 SMP Sun Sep 23 10:07:46 UTC 2012 x86_64 GNU/Linux 其中一个磁盘失败了: # grep sdf /var/log/kern.log | head Jan 30 19:08:06 orkan kernel: [163492.873861] sd 2:0:9:0: [sdf] Unhandled error code Jan 30 19:08:06 orkan kernel: [163492.873869] sd 2:0:9:0: […]
我有一个问题,我希望你能帮助我。 我有一个Iomega ix4作为我的NAS。 这运行Linux,每个驱动器在框中有2个分区:一个用于操作系统和RAID信息,第二个用于实际数据。 我把它configuration成RAID5。 最近其中一个驱动器失败。 在这一点上,所有的数据都可用,这只是报告一个失败的驱动器。 我有一个相同的容量驱动器(虽然不完全相同的规格),我换了代替失败的驱动器。 它承认它,并开始重build数据保护。 到目前为止这么好…或者我想。 第二天,在数据保护完成重build之后,NAS告诉我已经增加了4个新驱动器,并要求确认覆盖数据。 显然我拒绝这样做。 我再次将故障驱动器交换过来,希望它能够恢复到之前可访问的数据状态,但是却有一个故障磁盘。 然而它没有 – 它仍然告诉我,NAS有4个新的驱动器。 我希望实际的数据没有受到任何影响,所以我需要做的就是重buildRAID,而不用接触磁盘上的数据。 我有ssh访问,并运行像mdadm的东西 – 查看我能find什么。 mdadm.conf文件在“现有MDarrays的定义”部分中没有条目。 我还没有执行任何实际的重build命令,因为这正在进入我深入的一个领域。 请有人build议获取我的数据的最佳方式? 谢谢。