我必须添加一些存档\分段存储到SLES 10服务器。 要求是提供相当大的容量(每个约9-20TB,总共60TB左右),用于存储包含大图像文件(大部分为150Mg Tiff)的档案数据(字面上,这是一个图书馆)和大的tarballs。 数据绝大多数会偏向于读IO,当然> 95%,可能超过99%。
该存储已经被购买 – 戴尔MD3000 SASarrays菊花链与2台MD1000完全搭配的2TB 7200 RPM SATA驱动器,共45个驱动器。 arrays堆栈使用两个双端口外部SAS适配器连接,即有4条path通向堆栈。
我的意图是将它们configuration为4个卷组,每个arrays有一个热备份。 所有组都将是带有7个或14个驱动器的RAID 6,并且每个RAID组将使用该组中的所有容量呈现为单个LUN。 在SLES方面,这些需要被格式化为XFS卷。
我对SLES(和一般的Linux)的经验有限,我正在寻找一些关于这方面的build议,特别是:
该服务器是一个戴尔2950 – 我没有检查详细的规格,但顶部显示利用率徘徊在最低的单个数字。
在我以前的工作中,我们遇到了类似的问题。 我们正在为天文馆做生产,每一帧都是64万像素。 很多大的图像。 这些将在每个电影院的一个非常积极的阅读操作进行处理。
在这种情况下的服务器有一个类似的存储设置。 多个外部直接连接的RAIDarrays。 其中的每个都位于主机的RAID6卷中,并添加到LVM(逻辑卷pipe理器)下的VG(卷组)。 然后,每个展示/制作将获得他们自己的LV(逻辑卷),格式化的XFS,我们将根据需要随着项目一起增长。
如果你的数据集是非常静态的,或者像这样以一种可预测的方式增长,那么这种方法应该适合你。 但要小心,这种方法有一个缺点。 你最终不得不在存储上微调LV。 有些pipe理员喜欢这样,但其他人会尽量避免它。 但是这可以让您随着数据集的增长而增长每个LV和XFS文件系统。 保持你的XFS卷尽可能小,这样你就不会遇到需要几年完成的fsck。 如果文件系统南下,可以作为损害控制。
免责声明:如果我今天要设置,我会使用OpenSolaris和ZFS。 主要是B / C它避免了微观pipe理问题,是一个优秀的文件系统/卷pipe理器。 所以你可能也想看看这个。
我会包括更多的购买更多的磁盘和RAID 10他们。
数百个1TB FATA(光纤连接的SATA)磁盘,我们曾经买了一个,但是每个都有一千英镑,我每个月损失5%! 基本上他们只是没有devise为24×7的工作周期,你可能有同样的问题是为什么我会推荐R10。
RAID6是朝着正确的方向迈出的一步,但如果你有能力,我会留下至less一个磁盘作为热备用 – 如果一个磁盘死在你arrays上的任何地方,它会跳进去,并等待你的条纹更换发生故障的磁盘。 在这个问题上,确保你至less有2或3个备用磁盘现场准备好更换,并确保你有所有的警报设置,让你知道什么时候有问题24×7。
至于性能方面,那么这些2GB的磁盘对于一个7.2K的磁盘来说并不是那么懒惰,而且SAS可以非常快速,所以我期望你提到的连续读取的70MBps – 很显然随机写入和写入会很低。
对不起,如果我看起来是负面的,我刚刚存储多年,只能用企业磁盘系统轻松睡眠 – 我只是拉了太多48/72小时的class次固定低端的齿轮。