根据对我的另一个问题的意见,我的 MD RAIDarraysperformance不佳的原因是因为我的RAID5arrays有5个数据磁盘。 我尝试过search这些信息的原因,但是还没有find任何信息,所以我正在寻找更多的信息,为什么会这样,以及它对4个数据磁盘有什么样的影响。
我从来没有听说过任何RAID5 / 6arrays的“奇/偶”性能影响,像你一样,我从快速的networkingsearch找不到任何有用的东西。
RAID5 / 6arrays中的磁盘数量和写入性能可能存在潜在的问题,但它们与“更多磁盘==写入速度更慢”有关,因为(取决于实施情况)RAID系统可能要读取所有磁盘为了重新计算奇偶校验(如此,对于6磁盘RAID5,它将涉及4次读取 – 对于条带中每个未改变的数据块一次 – 以及两次写入 – 一次用于改变的块,一个用于奇偶校验块)。 一个好的实现将读取已更改的数据块和奇偶校验块,重新计算奇偶校验,并写入已更改的数据块和奇偶校验块,这意味着两次读取和两次写入,而不pipe该组中的磁盘数量。
这是相反的。 问题是当驱动器数量与RAID 5甚至。使用RAID 5,理想的驱动器数量是一个比2的幂多一个,所以5个驱动器是最佳尺寸之一。 这允许实现使块大小和两个条带大小的幂。
使用五个驱动器时,条带大小(必须作为一个单元写入RAIDarrays的用户数据量)将是块大小的四倍(必须作为一个单元写入驱动器的用户数据量)。 块的大小必须是512字节的倍数(或更新驱动器上的4KB),通常它必须是2的幂等于或大于驱动器的本地块大小。 因此,使用五个驱动器时,条带大小必须为2KB或更多(4KB驱动器上为16KB或更多)。
作为一般规则,添加附加主轴的性能提升将超过具有次优驱动器数量的性能成本。 所以六个驱动器的arrays通常仍然会优于五个驱动器的arrays。 在典型的RAID 5性能图中,3个驱动器和4个驱动器将彼此靠近,其中4个稍微靠上。 然后一点点将是5个驱动器和6个驱动器,彼此靠近,其中6个稍微靠上。