Articles of mdadm

RAID5系统中的分区分解

我有一台运行Debian Squeeze的服务器,还有一个我没有自己设置的3个500 GB的RAID5系统。 启动时,RAIDarrays中一个分区的状态似乎不好。 md: bind<sda2> md: bind<sdc2> md: bind<sdb2> md: kicking non-fresh sda2 from array! md: unbind<sda2> md: export_rdev(sda2) raid5: device sdb2 operational as raid disk 1 raid5: device sdc2 operational as raid disk 2 raid5: allocated 3179kB for md1 1: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0 2: w=2 pa=0 pr=3 m=1 […]

mdadm RAID1到RAID6

我有一个RAID1arrays。 我购买了4个相同大小的磁盘(他们是相同的型号驱动器),我试图枚举我的选项进行安全升级。 理想情况下,他们将是一个大的ext3卷。 首先, 我疯了吗? 我真的想把软件RAID1移到5或6吗? 我希望我从来没有? 这台机器相当强大(一个12G的i7的内存),但性能会更差吗? R6比R5差吗? 我应该补充说,这个磁盘没有任何“运行” – 它纯粹是一个小型networking的存储。 第二步: 我该怎么做? 如果我要使用RAID6,是否最好在故障状态下创build一个新的6磁盘RAID6arrays(即2个驱动器缺失),将数据从RAID1中复制,打破RAID1并将这些磁盘添加到RAID6? 我非常希望得到来自mdadm用户的任何反馈。

Ubuntu 16.04 – 冻结mdadmarrays

我有一个有效的RAID5arrays,由6个4TB磁盘组成。 Smartd报告说其中一个磁盘启动失败。 我决定在一个操作中做几件事情:1)删除发生故障的磁盘2)添加一个新的replace它3)添加更多的磁盘到arrays,并成长 由于(3)我只有较小的磁盘,所以我使用LVM连接大于4TB的卷 这是我跑的顺序: 1) vgcreate vg_sdi_sdj /dev/sdi1 /dev/sdj1 2) vgcreate vg_sdj_sdl /dev/sdk1 /dev/sdl1 3) lvcreate -l 100%FREE -n all vg_sdi_sdj 4) lvcreate -l 100%FREE -n all vg_sdk_sdl 5) mdadm –manage /dev/md1 –add /dev/sdg1 6) mdadm –manage /dev/md1 –add /dev/vg_sdi_sdj/all 7) mdadm –manage /dev/md1 –add /dev/vg_sdk_sdl/all 8) mdadm –manage /dev/md1 –fail /dev/sdc1 9) mdadm […]

无法挂载'/ dev / sda'

我的服务器在软RAID 1中有两个2 TB的硬盘驱动器。 我无法挂载/dev/sda 。 parted -l输出parted -l root@rescue:~# parted -l Model: ATA HGST HUS724020AL (scsi) Disk /dev/sda: 2000GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 20.5kB 1049kB 1029kB primary bios_grub 2 2097kB 1987GB 1987GB primary 3 1987GB 1992GB 5242MB ext4 primary 4 1992GB […]

Mdadm不会创build大于10TB的数组

我有一个运行Ubuntu 14.04 LTS的六个4TB硬盘的服务器。 其中一个驱动器用于系统/操作系统 我想使用其他5个驱动器尽可能接近20TB的存储空间 这是一个短期的数据分析项目,所以RAID 0是好的 我使用fdisk在每个驱动器上创build一个〜4TB的分区 运行mdadm创buildRAID 0arrays后,结果只是/ dev / md0上的10TB设备。 我期待的大小的一半! 这是我用来创build数组的命令: mdadm –create –verbose /dev/md0 –level=stripe –raid-devices=5 /dev/sd[bcdef]1 下面是一个fdisk -l输出。 关于为什么我无法从驱动器中获得更多空间的任何想法? Disk /dev/sda: 4000.8 GB, 4000787030016 bytes 255 heads, 63 sectors/track, 486401 cylinders, total 7814037168 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes […]

使用嵌套的RAID 6 + 1 + 0是一个好主意吗?

目前,我有24个500 GB的磁盘,我想创build一个更大的嵌套式RAID使用戴尔Power Edge R730服务器,有4次RAID 6,每次500GB的六倍,我想添加RAID 1和RAID 0在整体上。 我的问题是:这是安全的吗? 这是值得创build一个数组这么大? 我知道我将有一个惊人的速度,但维护和故障将花费我。 看到build议的图片(图中有48个磁盘)。

EC2磁盘达到100%实用程序,但重新启动后罚款

我们一直在Amazon EC2上运行一些生产服务,主要使用t1.large和t1.xlarge实例(非EBS)。 每隔一个附加(临时磁盘),经常会进入100%util状态(由iostat -xtc报告)。 当磁盘进入这种状态时,它基本上是完全不可用的。 重新启动解决了这个问题,看起来没有任何损坏。 发生显然是随机的,每隔几周就会发生一次。 我不确定是否有任何软件相关,但是我们正在运行最新的Ubuntu 10.04(Lucid)。 这些临时磁盘目前在lvm(RAID0)下运行。 以前我们使用mdadm和lvm。 有没有其他人看过这种行为之前(不知道它是特定于EC2)和任何想法如何避免它或纠正它,而无需重新启动?

以“远”布局计算Linux mdadm RAID10arrays的正确条带大小

我从6个驱动器创buildRAID10arrays。 在近布局中创build时,例如 mdadm –create / dev / md2 –chunk = 64 –level = 10 –raid-devices = 6 –layout = n2 / dev / sda1 … 检查系统报告的条带大小: cat / sys / devices / virtual / block / md2 / queue / optimal_io_size 结果是196608,正如预期的那样,例如3个数据驱动器(RAID10中总共6个数据块的50%)×64K块= 192K条带。 现在,当使用–layout=f2选项创build相同的数组时, optimal_io_size报告393216 ,例如两倍大。 现在, 根据指甲布朗 (mdadm raid10作者), “远”布局将所有数据放在所有驱动器的前半部分中,然后在所有驱动器的后半部分以类似的布局放置第二个副本 – 确保所有块的副本都处于打开状态不同的驱动器 这将会产生读取性能,这与raid0类似于全部驱动器的读取性能相当,但是由于将会有更多的驱动器磁头寻找,因此写入性能会大大降低。 所以看来操作系统是build议我最好使用类似RAID0的条带大小(在arrays中的所有磁盘上),而不是“传统”的RAID10条带大小(在arrays中的半个磁盘上)。 […]

为什么我的HDD分区是字符特殊设备?

我有一堆旧的1T磁盘上有一个mdadm数组。 他们已经退出了一段时间,但昨天我把他们插入到一个运行着Debian Jessie的服务器上。 最终我把arrays重新组合在一起,但是有两个驱动器拒绝重新添加。 看着这些驱动器,似乎我已经添加设备到arrays而不是(Linux RAID autodetect)分区(sdz而不是sdz1) – 我得到什么似乎适当的输出为mdadm -E /dev/sdz ,但是如果我运行mdadm -E /dev/sdz1 ,我得到mdadm: cannot open /dev/sdz1: No such device or address 。 进一步看,这两个驱动器的分区似乎是字符特殊设备,而不是块特殊: root@comp:~# file /dev/sda1 # good drive /dev/sda1: block special (8/225) root@comp:~# file /dev/sdz1 # bad drive /dev/sdz1: character special (8/209) 即使使用dd清零整个坏驱动器,然后用fdisk重新创build分区,它们仍然以相同的方式回来! 这里发生了什么? 编辑:这是什么ls说这些设备: root@comp:~# ls -l /dev/sdz* brw-rw—- 1 root […]

CentOS 7:GPT和没有“biosboot”分区的软件RAID 1

我有一个软件RAID1(2x3TB)的CentOS 6服务器: – sda # parted /dev/sda unit s print Model: ATA TOSHIBA DT01ACA3 (scsi) Disk /dev/sda: 5860533168s Sector size (logical/physical): 512B/4096B Partition Table: gpt Number Start End Size File system Name Flags 1 2048s 1026047s 1024000s ext4 boot 2 1026048s 5860532223s 5859506176s raid – sdb # parted /dev/sdb unit s print Model: ATA TOSHIBA […]