我有大约200个运行我的程序的计算节点。 当这些程序运行时,这些节点将需要访问存储数据的共享位置。 我需要一个可以容纳〜3TB数据的存储,但是在同时从所有节点访问时应该是活跃的。
使用模式是读写每个程序运行约2MB大约10个文件。 每个节点将运行这样的程序的8个实例。 因此,我有1600个相同的程序运行并试图访问数据的实例。
没有并发写入同一个文件。
我应该使用什么存储系统?
目前,我正在考虑购买几台运行Linux + 1 4U RAID机箱的戴尔服务器。 戴尔服务器将从机箱提供文件。 我不知道什么软件可以让我做负载平衡文件服务。
在这个最重要的问题是你的200个节点已经有了什么现有的I / O?
我之所以这样说,是因为很多计算密集型钻井平台都使用infiniband,如果你已经拥有了这个基础设施,我强烈build议你只需要购买一个FC-to-IB的网关,然后“花费”现有的投资,会变得快速而有弹性
在没有IB的情况下,下一个最好的高性能SAN将是一个8 / 4Gbps的FCnetworking – 这对于200个节点来说将是超高速但非常昂贵的,因为FC HBA / SFP + s / FC交换机等在该卷上并不便宜。 这表示这是一个很好的解决scheme,可以让你在晚上睡得好。 哦,我同意Adrian的意见,HP EVA非常容易安装。
如果你的节点只有1或10GB的以太网,那么我就很想去这些类似NAS的分布式文件系统,比如gluster,或者只是一个普通的中高端NAS,比如NetApp与负荷斗争)。 这将起作用,但您可能会在高峰时段看到问题,当然这意味着您的成本将远远低于其他解决scheme。 如果你走“大NAS”路线,我会试图用10Gbps网卡来连接它们,因为它们的价格已经下降了很多,而且与大量组合的1Gbps网卡相比,处理起来要容易得多。
我绝对要避免的是iSCSI,原因是如果你希望有共享存储,即使只有两个节点看到相同的容量,你也需要一个集群文件系统 – 对于less数节点来说这些都不错,但是不会200个节点运行良好 – 如果有的话 – 仲裁本身就会削弱环境。 顺便说一句,FC的问题不大,因为仲裁更多地被devise成FC。
希望这有助于,随时回来跟进问题。 哦,好的问题的方式:)
如果你想推出自己的,这已经提出过去的post/问题,它看起来很有趣…
嗯,好的,如果你对戴尔产品感兴趣,你可以要求提供关于戴尔Equalogic的信息。 这是一个SAN iSCSI解决scheme。 它可以提供4(端口)* 10Gb(我认为是允许equallogic的紧固件端口configuration)带宽。
您也可以select光纤通道解决scheme.. HP MSA或EVA …