将60TB存储添加到SLES 10服务器

我必须添加一些存档\分段存储到SLES 10服务器。 要求是提供相当大的容量(每个约9-20TB,总共60TB左右),用于存储包含大图像文件(大部分为150Mg Tiff)的档案数据(字面上,这是一个图书馆)和大的tarballs。 数据绝大多数会偏向于读IO,当然> 95%,可能超过99%。

该存储已经被购买 – 戴尔MD3000 SASarrays菊花链与2台MD1000完全搭配的2TB 7200 RPM SATA驱动器,共45个驱动器。 arrays堆栈使用两个双端口外部SAS适配器连接,即有4条path通向堆栈。

我的意图是将它们configuration为4个卷组,每个arrays有一个热备份。 所有组都将是带有7个或14个驱动器的RAID 6,并且每个RAID组将使用该组中的所有容量呈现为单个LUN。 在SLES方面,这些需要被格式化为XFS卷。

我对SLES(和一般的Linux)的经验有限,我正在寻找一些关于这方面的build议,特别是:

  1. 在SLES 10下configuration这种大小的XFS卷时,有没有什么特别的事情需要注意,即给定IOconfiguration文件的默认设置是否正确?
  2. 什么是最好的方式来初始化\分区\格式这些? 我使用Parted来设置磁盘标签和YAST分区pipe理器(接受所有的默认设置)来为我的初始testing创build和格式化XFS卷。
  3. 我如何设置多path? 当我提交初始testing卷时,它显示为四个单独的设备(/ dev / sdl,/ dev / sdm,/ dev / sdn和/ dev / sdn)。 我该如何处理这个作为一个单一的卷?
  4. 在我的初始testing中,我看到从现有EMC Clariion SAN容量大约30Meg / sec的传输率。 这比我所期望的要低很多,即使考虑到RAID 6写入的惩罚,我也希望能看到70-100Meg / sec的速度。
  5. 如何判断一切是否正常 – 我应该在哪里寻找错误,警告等等? YAST分区编辑器需要很长时间才能启动,我想了解原因。
  6. 你会不同的分区和\或使用不同的文件系统,如果是的话,为什么?

该服务器是一个戴尔2950 – 我没有检查详细的规格,但顶部显示利用率徘徊在最低的单个数字。

    在我以前的工作中,我们遇到了类似的问题。 我们正在为天文馆做生产,每一帧都是64万像素。 很多大的图像。 这些将在每个电影院的一个非常积极的阅读操作进行处理。

    在这种情况下的服务器有一个类似的存储设置。 多个外部直接连接的RAIDarrays。 其中的每个都位于主机的RAID6卷中,并添加到LVM(逻辑卷pipe理器)下的VG(卷组)。 然后,每个展示/制作将获得他们自己的LV(逻辑卷),格式化的XFS,我们将根据需要随着项目一起增长。

    如果你的数据集是非常静态的,或者像这样以一种可预测的方式增长,那么这种方法应该适合你。 但要小心,这种方法有一个缺点。 你最终不得不在存储上微调LV。 有些pipe理员喜欢这样,但其他人会尽量避免它。 但是这可以让您随着数据集的增长而增长每个LV和XFS文件系统。 保持你的XFS卷尽可能小,这样你就不会遇到需要几年完成的fsck。 如果文件系统南下,可以作为损害控制。

    免责声明:如果我今天要设置,我会使用OpenSolaris和ZFS。 主要是B / C它避免了微观pipe理问题,是一个优秀的文件系统/卷pipe理器。 所以你可能也想看看这个。

    我会包括更多的购买更多的磁盘和RAID 10他们。

    数百个1TB FATA(光纤连接的SATA)磁盘,我们曾经买了一个,但是每个都有一千英镑,我每个月损失5%! 基本上他们只是没有devise为24×7的工作周期,你可能有同样的问题是为什么我会推荐R10。

    RAID6是朝着正确的方向迈出的一步,但如果你有能力,我会留下至less一个磁盘作为热备用 – 如果一个磁盘死在你arrays上的任何地方,它会跳进去,并等待你的条纹更换发生故障的磁盘。 在这个问题上,确保你至less有2或3个备用磁盘现场准备好更换,并确保你有所有的警报设置,让你知道什么时候有问题24×7。

    至于性能方面,那么这些2GB的磁盘对于一个7.2K的磁盘来说并不是那么懒惰,而且SAS可以非常快速,所以我期望你提到的连续读取的70MBps – 很显然随机写入和写入会很低。

    对不起,如果我看起来是负面的,我刚刚存储多年,只能用企业磁盘系统轻松睡眠 – 我只是拉了太多48/72小时的class次固定低端的齿轮。