MDADM RAID5大小

我目前有RAID5的9x1TB磁盘,对我来说是8TB的存储空间。 但是,我没有得到这一点。 这是从RAID6移动到RAID5并执行必要的命令来调整文件系统的大小。

mdadm --detail /dev/md0

 /dev/md0: Version : 1.2 Creation Time : Sun Apr 8 18:20:33 2012 Raid Level : raid5 Array Size : 7804669952 (7443.11 GiB 7991.98 GB) Used Dev Size : 975583744 (930.39 GiB 999.00 GB) Raid Devices : 9 Total Devices : 9 Persistence : Superblock is persistent Update Time : Tue Dec 10 10:15:08 2013 State : clean Active Devices : 9 Working Devices : 9 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Name : ares:0 (local to host ares) UUID : 97b392d0:28dc5cc5:29ca9911:24cefb6b Events : 995494 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1 5 8 49 2 active sync /dev/sdd1 3 8 65 3 active sync /dev/sde1 4 8 81 4 active sync /dev/sdf1 9 8 113 5 active sync /dev/sdh1 11 8 97 6 active sync /dev/sdg1 6 8 145 7 active sync /dev/sdj1 10 8 129 8 active sync /dev/sdi1 

df -h

 Filesystem Size Used Avail Use% Mounted on /dev/md0 7.2T 2.1T 4.8T 31% /mnt/raid 

这是正常的,我应该期待什么,或者我做错了什么?

这是古老的二进制与千兆/兆/千兆/兆兆字节的问题。

注意行

 Array Size : 7804669952 (7443.11 GiB 7991.98 GB) 

所以,虽然你的数组大小是7991.98 GB,使用denary GB – 这几乎是8 * 1TB – 使用二进制GiB它是7443.11 GiB。 再除以2 ^ 10得到7.27TiB,然后损失大约1.5%的FS开销使我们达到7.16TiB,或舍入为7.2,这正是df所报告的。

要查看类似数组的更详细的分析,包括“1.5%”数字的理由,请在这里阅读我的答案