我有三个磁盘用于保存MD RAID5arrays。 我已经删除(或所以我想)这个数组,并创buildbtrfs和交换空间的partions。 在重新启动计算机时,MD仍然绑定用于容纳旧arrays的设备,导致新的文件系统无法安装。 有人向我暗示,raidarrays的旧超级块可能会被留下,导致MD认为它是一个真正的arrays,从而绑定磁盘。 build议的解决scheme是使用mdadm –zero-superblock清除受影响的磁盘上的超级块。 但是,我不知道这是怎么做的磁盘。 由于这个磁盘容纳分区,我不想盲目地开始调零。 那么我应该遵循什么程序来安全地清除MD超级块,而不会损坏驱动器上的其他分区和文件系统? 这个问题本质上是同样的问题,但是在重新分区的设备上做mdadm –zero-superblock实际上应该是安全的还是没有明确的答案: mdadm superblock hiding / shadowing partition
我读过一篇博客文章,指出与RAID0相比,EC2上的RAID10将性能降低了一半。 但是,如果卷上有关键数据库数据,那么在卷出现问题的情况下,您还可以如何防止数据丢失? (我刚刚遇到了RAID0arrays中的一个卷停止响应的情况…) 我确实有日志传送的主/从复制,但如果RAID10可以帮助我避免故障转移,那么不需要执行故障转移。
我试图停止一个RAID磁盘,以便更换一个新的,因为这一个不能正常工作。 我正在inputmdadm –stop /dev/md1 ,并且收到错误消息: mdadm: fail to stop array /dev/md1: Device or resource busy 即使重新启动服务器,我也收到了这条消息,而且看不到可能导致此问题的进程。 服务器正在使用2.6.18-4-amd64内核的Debian。 你能帮忙吗? 编辑:关于我的同事试用的更多细节。 卸载sda1后,命令mdadm –remove /dev/md0 /dev/sda1工作。 但是现在,我们仍然在mdadm –remove /dev/md1 /dev/sda5之后出现错误消息: mdadm: hot remove failed for /dev/sda5: Device or resource busy 我仍然不完全理解不同的分区是如何安装的,所以我认为在这种情况下我有些不明白的地方。
我在我的服务器上安装了两个硬盘作为RAID 1arrays(Linux,使用mdadm的软件RAID),其中一个硬盘在系统日志中提供了这个“present”: Nov 23 02:05:29 h2 kernel: [7305215.338153] ata1.00: exception Emask 0x0 SAct 0x1 SErr 0x0 action 0x0 Nov 23 02:05:29 h2 kernel: [7305215.338178] ata1.00: irq_stat 0x40000008 Nov 23 02:05:29 h2 kernel: [7305215.338197] ata1.00: failed command: READ FPDMA QUEUED Nov 23 02:05:29 h2 kernel: [7305215.338220] ata1.00: cmd 60/08:00:d8:df:da/00:00:3a:00:00/40 tag 0 ncq 4096 in Nov 23 […]
今天早上我收到了这个消息: This is an automatically generated mail message from mdadm running on A DegradedArray event had been detected on md device /dev/md1. Faithfully yours, etc. PS The /proc/mdstat file currently contains the following: Personalities : [raid1] md1 : active raid1 sdb3[2](F) sda3[1] 1860516800 blocks [2/1] [_U] md0 : active raid1 sdb1[0] sda1[1] 499904 blocks [2/2] […]
我有一个mdadm在我的Ubuntu Linux 11机器上创build了软件RAID卷。 这不是启动驱动器。 这是一个由3个大型SATA硬盘组成的软件RAID 5configuration。 当我最初创build它时,我做了ext3。 我从那以后就知道我可以将它转换成ext4(或ext2)。 首先,我想确认一下,这是有道理的,例如转换为ext4会给我更好的性能(在ext3上searchext4似乎是一个共同的好处)。 接下来,是否有任何理由考虑去ext2 – 或者这实际上是一个坏主意? 最后,我该怎么做? 从我收集的内容(例如,从这个站点),我需要卸载音量,然后执行一些命令来转换音量。 我的fstab当前被设置为文件系统types的“自动”。
我有一个软件RAIDconfiguration(/ dev / md2),它已经从两个3TB磁盘(sda和sdb)分配了分区sda3和sdb3。 分区types是GPT而不是LVM,文件系统是ext4。 现在,根分区占用1TB,主分区(在RAID / dev / md3上的sda4和sdb4)占用1.8TB,我想调整根分区的大小,使其只占用250GB,并将可用空间分配给主分区。最终在md2中为250GB,在家中为2.5TB。 为了做到这一点,我读了使用mdadm和resize的数组卷将实现,但问题是,它只调整了md2设备,但sda3和sdb3中的可用空间未使用,我无法将其分配给sda4和sdb4,所以我可以在md3中使用额外的空间,所以我有: At the beginning: /dev/md2 with ext4, mounting / with quota of 1000GB sda3: 1000GB with ext4 using the full 1000GB sdb3: 1000GB with ext4 using the full 1000GB /dev/md3 with ext4, mounting /home with quota of 1800GB sda4: 1800GB with ext4 using the full […]
我最近将RAID5中的磁盘从3x2TB更改为3x3TB。 我也想把块大小从默认的512k改为128k。 我已经添加了所有新的设备arrays,我运行: mdadm /dev/md1 –grow –backup-file=/boot/md1_grow_backup_file –chunk=128 –backup-file选项是必需的,因为块大小发生了变化,而且由它指定的文件位于不同的块设备上。 我不得不closures服务器来物理移动它,但重塑操作比我预期的要慢得多,所以我想知道是否可以中断进程并在重新启动后继续进行。 这个联机手册提供了一些关于中断/重塑过程的信息,但是在我看来,这是为了覆盖一些灾难性的情况 – 断电,服务器locking等等。 是否有可能优雅地停止mdadm数组重塑? 如果是这样,如何停止arrays以及如何恢复启动后的重塑? 备份文件是必要的吗?
我刚刚用mdadm创build了一个CentOS 6.3 64位服务器,但是一个灯泡继续运行,我意识到grub只能安装在第一个驱动器上,而第一个驱动器和摩托车上的烟灰缸一样多。 我看了一下,以确认我的怀疑: grub> find /grub/stage1 find /grub/stage1 (hd0,0) 所以我更新了我的设备映射,如下所示: (fd0) /dev/fd0 (hd0) /dev/sda (hd1) /dev/sdb (注意(hd1)条目是由我添加的 所以然后我试图在/ dev / sdb上安装grub 我得到: grub> root (hd1,0) root (hd1,0) Filesystem type is ext2fs, partition type 0x83 grub> setup (hd1) setup (hd1) Checking if "/boot/grub/stage1" exists… no Checking if "/grub/stage1" exists… no Error 15t: File not found […]
RAID1系统如何确定使用哪个磁盘作为源,以及在镜像时使用哪个磁盘作为目的地? 例如,假定以下情况:使用两个磁盘A和B创buildRAID1arrays。将磁盘Creplace为A,并将其添加到arrays中。 随着时间的推移,文件被修改了。 现在B被删除,A被重新插入。 RAID1系统是否意识到A和C不同步? 那C是比A更新的? 如果没有,是否有安全的方法来避免磁盘A插入时立即启动镜像过程? 编辑:我应该清楚,在我的情况下,我假设A没有失败,当它被删除,所以,据我所知,neigther A和C是“脏”,当RAID1系统必须决定哪种方式之间镜像。 (我没有假设位图,但我知道这可能是相关的。)