有电源故障,现在我的mdadmarrays有问题。 sudo mdadm -D / dev / md0 [hodge @ hodge-fs〜] $ sudo mdadm -D / dev / md0 / dev / md0:版本:0.90创build时间:星期日4月25日01:39:25 2010 Raid Level:raid5 Array大小:8790815232(8383.57 GiB 9001.79 GB)使用开发大小:1465135872(1397.26 GiB 1500.30 GB)Raid设备:7设备总数:7首选次要:0持久性:超级块持久性 Update Time : Sat Aug 7 19:10:28 2010 State : clean, degraded, recovering Active Devices : 6 Working Devices : 7 Failed […]
Debian安装程序已经创build了lilo.conf: boot=/dev/md1 root=/dev/md1 raid-extra-boot=mbr-only 但是,当我configurationlilo我通常把这些线 disk=/dev/md1 sectors=63 heads=255 cylinders=60801 boot=/dev/sda root=/dev/md1 map=/boot/map 其中/ dev / sda是RAID1的第一个项目(同时我也将sda换成sdb并再次运行lilo,如果第一个项目会死掉,就可以从第二个项目启动) 问题:哪种方法更好? debian安装程序是否将启动加载数据写入磁盘?
我有一个mdadm raid6arrays与13x1TB驱动器。 在10分钟内,其中3个驱动器掉出arrays…我们假设电缆连接到控制器卡并更换了,但现在我们需要将驱动器重新安装到工作arrays中。 因为md0被标记为失败,我们删除了mdadm数组,并使用原来的13个驱动器创build了一个新的md0。 1在重build期间再次失败,所以我们现在有一个退化的md0。 问题是lvm没有看到mdadm中存在的数组。 有什么我们可以做的,以恢复我们的数据? $ pvscan PV /dev/sda5 VG nasbox lvm2 [29.57 GiB / 0 free] Total: 1 [29.57 GiB] / in use: 1 [29.57 GiB] / in no VG: 0 [0 ] $ cat / proc / mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active […]
我已经使用Rackspace的CloudBlockStorage作为设备在3台Rackspace CloudServers上使用mdadm创build了3个RAID0arrays。 每个arrays都有自己的一组CBS卷。 RS-CBS的驱动器上限为1TB,我需要更大的存储空间。 其中一个服务器用于数据存储,第二个服务器是该服务器的实时镜像,第三个是夜间快照。 我使用这个命令在每个服务器上创build了这个数组: mdadm –create /dev/md0 –level=0 –raid-devices=3 /dev/xvdb1 /dev/xvdd1 /dev/xvde1 到了增长arrays的时候,由于这是我第一次增长arrays,所以我开始使用最不关键的服务器:快照服务器。 我添加了一个新的卷,并有一个小小的摆弄,提出了这个命令: mdadm –grow /dev/md0 –raid-devices=4 –add /dev/xvdf1 根据mdadm手册页,它说你无法增长一个RAID0,所以mdadm把它转换成RAID4,增长,然后转换回来。 (它永远不会变回,但这是另一个问题)。 该arrays重塑,但大小永远不会改变。 我的假设是,新的驱动器刚刚成为arrays的奇偶校验驱动器。 所以为了得到我需要的空间,我增加了一个空间: mdadm –grow /dev/md0 –raid-devices=5 –add /dev/xvdg1 这个重塑并给了我额外的500GB,我希望所以我做resize2fs /dev/md0 ,我很好去; 2TB的空间。 所以这就是奇怪发生的地方。 我切换到在镜像服务器上增长arrays。 从前面的步骤知道,我将需要添加两个卷来获得我需要的额外空间,我使用这个命令: mdadm –grow /dev/md0 –raid-devices=5 –add /dev/xvdf1 /dev/xvdg1 它重塑和东西看起来不错,但是当我做resize2fs /dev/md0后面跟着一个df -hal我发现它确实增长了,并报告了2.5TB的空间,而不是我期待的2.0TB。 就好像它没有创build奇偶校验驱动器,我假设它从第一次运行,并使用arrays的所有可用空间。 有一点看起来不一样,就是在镜像服务器上进行mdadm -D /dev/md0之后, mdadm […]
当我input mdadm –detail / dev / md0 我收到了很多我理解的大部分有用的信息。 不过,我也得到一行: Events : 0.710 数字变化的地方。 天真地,我认为事件发生或者没有发生。 我怎么能只有0.710的事件? 或者,如果你更喜欢为什么“事件”不是一个整数值? 编辑 在看到下面的用户的答案之后,我挖了一下代码,发现了 #if __BYTE_ORDER == __BIG_ENDIAN 144 __u32 events_hi; / * 7超级块更新计数的高阶* / 145 __u32 events_lo; / * 8超级块更新计数的低位* / … 148 #else 149 __u32 events_lo; / * 7超级块更新计数的低位* / 150 __u32 events_hi; / * 8超级块更新计数的高阶* / … 153#endif` […]
我的一台服务器的驱动器发生故障,所以我从所有三个相关arrays中移除了故障驱动器,将驱动器换出,然后将新驱动器添加到arrays中。 其中两个arrays工作完美。 第三个将驱动器添加为备用,并且在mdadm细节中有一个奇怪的“已删除”条目。 我尝试了两个 mdadm /dev/md2 –remove failed 和 mdadm /dev/md2 –remove detached 就像这里和这里所build议的,这两者都没有抱怨,但也没有任何影响。 有谁知道我可以摆脱这个条目,并得到正确的驱动器加回来? (理想情况下,不用第三次重新同步,我已经做了两次,这需要几个小时,但是如果这是需要的,那就需要这么做)。新的驱动器是/dev/sda ,相关的分区是/dev/sda3 。 这里是数组的细节: #mdadm –detail / dev / md2 的/ dev / MD2: 版本:0.90 创作时间:周三10月26日12:27:49 2011 团队副本:raid1 数组大小:729952192(696.14 GiB 747.47 GB) 使用的开发尺寸:729952192(696.14 GiB 747.47 GB) RAID设备:2 设备总数:2 优先轻微:2 持久性:超级块是持久的 更新时间:2013年11月12日17:48:53 状态:干净,退化 有源器件:1 工作设备:2 失败的设备:0 备用设备:1 UUID:2fdbf68c:d572d905:776c2c25:004bd7b2(本地到主机等等) 事件:0.34665 数量主要次要RaidDevice状态 0 […]
长期以来,我在用于KVM虚拟化的CentOS服务器上遇到性能问题。 我正在运行带有4个磁盘( Seagate ST2000DM001, 2TB, 7200rpm SATA-600 )的软件RAID-10 。这些KVM虚拟机正在运行自己的LV。 一旦安装了一些虚拟机,每增加一台虚拟机,性能就会下降。 现在,安装Debian 7 minimal需要大约3个小时。 在没有虚拟机的空盒子上,这个过程最多只需要几分钟。 奇怪的是,即使有37个虚拟机,也几乎没有磁盘I / O。 但是那个时候需要做的每一个I / O,都会把关于那个特定LV容量的"dm"设备带到100%。 出于某种原因,它看起来像"dm-xx"设备不能使用所有的磁盘。 下面是我的意思的一个例子。 在这个问题中, sd[a/b/c/d]通常是40%到60%的负载,但是一个或多个dm设备负载很高,没有任何严重的I / O。 请注意,虚拟机正在使用的特定dm-0的%util 。 Device: rrqm/s wrqm/sr/sw/s rkB/s wkB/s avgrq-sz avgqu-sz await svctm %util sdb 10.00 0.00 5.00 36.00 256.00 424.00 33.17 0.86 20.73 11.02 45.20 sdd 0.00 1.00 0.00 48.00 […]
我有一个全新的CentOS 6.5安装,其中有两个(挂载到/ mnt / data)1tb Western Digital Black驱动器,在raid 1中使用mdadm,通过安装程序进行configuration。 不幸的是,每当整个系统内核出现类似如下的恐慌: 任何提示诊断或修复? 非常感激! 编辑:这似乎发生了raid数据检查发生在同一时间: 编辑2:最后两个崩溃发生在刚刚过去凌晨1点星期天,同一时间的数据检查发生。 Mar 23 01:00:02 beta kernel: md: data-check of RAID array md0 Mar 23 01:00:02 beta kernel: md: minimum _guaranteed_ speed: 1000 KB/sec/disk. Mar 23 01:00:02 beta kernel: md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for […]
我有一个Linux(Debian / Ubuntu的)服务器与4个英特尔SSD 910 800GB pcie,我需要RAID一起。 这些卡最大的问题是,他们给你4X200GB的驱动器,你不能硬件RAID(更多关于这个: http : //www.intel.com/support/ssdc/hpssd/sb/CS-034181.htm ) 所以linux检测到这些驱动器: sda – 系统驱动器 sdb – 卡#1 sdc – 卡片#1 sdd – 卡片#1 sde – 卡片#1 sdf – 卡片#2 sdg – 卡片#2 sdh – 卡片#2 sdi – 卡#2 sdj – 卡片#3 sdk – 卡片#3 sdl – 卡片#3 sdm – 卡片#3 sdn – 卡#4 sdo […]
我有一些运行Debian 8的服务器,configuration为RAID6的8x800GB SSD。 所有磁盘都连接到LSI-3008闪烁到IT模式。 在每个服务器上,我还有一个2磁盘对作为操作系统的RAID1。 当前状态 # dpkg -l|grep mdad ii mdadm 3.3.2-5+deb8u1 amd64 tool to administer Linux MD arrays (software RAID) # uname -a Linux R5U32-B 3.16.0-4-amd64 #1 SMP Debian 3.16.7-ckt25-2 (2016-04-08) x86_64 GNU/Linux # more /proc/mdstat Personalities : [raid1] [raid6] [raid5] [raid4] md2 : active raid6 sde1[1](F) sdg1[3] sdf1[2] sdd1[0] sdh1[7] sdb1[6] sdj1[5] […]