看起来,随着更多磁盘添加到arrays,Linux mdadm产生更less的写入和iops。 例如,我testing了以下configuration,除了将I / O调度程序更改为截止时间以及将tuned-admconfiguration文件更改为吞吐量性能之外,还使用了默认值:
主板有双E5处理器,DDR4 RAM和10 X SATA3端口。 SSD是10 X三星850 Pro驱动器。 操作系统是CentOS 7 64.(CentOS 6.7真的很糟糕)。 FS是xfs。
使用大约4-6个驱动器,绕过caching的顺序写入大致为800 MB / s到1 GB / s。 高速caching写入大概是2-3GB / s。
运行各种fiotesting,iops似乎最高约80000 iop直接国旗,当然80万+没有直接的国旗。
块大小是512k,默认值。 分区似乎正确alignment。
当更多的磁盘被添加到arrays时,iops在整个电路板上保持相同,大约为60-80,000个iops,并且不随附加驱动器线性扩展。
另外,当添加更多的驱动器时,顺序写入似乎只是一个驱动器而已。 对iops和顺序写入进行单个驱动器的testing可以产生大约70,000个iops(基于RW百分比)和400-500 MB / s。 arrays中的所有10个驱动器的序列略低,在300-500MB / s之间。
顺序写入不是一个交易破坏者,但是,我想知道是否有一个瓶颈或限制在mdadm被忽视。 随着4-6驱动器,它执行真棒。 超过6个驱动器,性能似乎保持不变或下降,特别是随着任何连续写入。
编辑一些额外的testing后,我能够得到连续的速度,当做非常大的写入,如20GB,40GB 80GB等。42GB的ddtesting产生640 MB / s与fdatasync。
我也明白dd对SSD的基准testing是不理想的 – 这不是我的问题,我想了解超越4-6个硬盘的情况。