只需要适度的预算,我想将我的4个xen服务器移动到networking存储器上,NFS或iSCSI将根据我们testing时执行的性能来确定(我们需要良好的吞吐量,并且必须继续通过链接和开关故障testing)。 我们可能会在某些时候再添加一些xen服务器。
我对存储networking的devise和操作了解不多,所以真的很感谢那些有经验的人。 除存储设备外,预算约为3,800美元。 我目前认为这些是我的select,以保持预算:
1)去使用的infiniband硬件,并瞄准10GB的性能。
2)坚持使用以太网并购买一些新的交换机(思科或Procurve)创build一个仅存储以太网局域网。 稍后升级到10gigE,但尽可能使用能够降低升级成本的硬件。
我已经看到使用,保证infiniband切换价格合理(大概是因为大公司正在10Gbit以太网汇合?)和廉价的10GB的承诺是有吸引力的。
我对IB一无所知,所以在这里提出问题:
我可以购买2个交换机,并在我的xen和存储节点中拥有多个HBA,以获得冗余性和更高的性能,而无需复杂或昂贵的pipe理软件成本? 如果是这样,你能指点我一些例子吗?
不pipeNFS和iSCSI工作是否一样?
IB是一个明智的select,或者可以/我应该使用以太网或FC在相同的预算 – 我渴望不会被装箱到未来的升级angular落,但是。
对于存储,我可能使用nexentastor构build一个存储服务器,以便以后可以添加更多磁盘,SSD并添加另一台服务器,以在存储级别提供故障切换选项。 HP LeftHand启动器SAN也在考虑之中。
提前致谢。
如果可能,请使用Infiniband。 因为它具有很小的保证延迟,所以它优于10g以太网。 对于短距离来说这是一个更好的技术,并且可以像以太网处理的真实networking一样分离。
关于在一个angular落ibeing – 你是。 angular落是“服务器端群集高性能networking”。 问题是你是否可以忍受这个问题 – 我个人认为这是一个很好的angular子机。
Infiniband的最大优势不是带宽更高,而是延迟极低。 这对于响应/请求吞吐量是很好的。 以太网在延迟区域更糟糕。
不pipeNFS和iSCSI工作是否一样?
如果你不得不问这个问题,你应该雇用一个人来做这个设置。 这是基本的初学者的东西。 iSCSI是networking上的SCSI。 每个IT技术人员都应该知道SCSI是什么(处理硬盘通信的协议),因此它可以处理直接的块读写访问。
每个安装了光盘的人都知道你必须对这个光盘进行分区和格式化。 然后,NFS坐在最上面(你应该知道)。
所以,他们是不一样的,他们有显着的差异。
关于什么更好 – 这取决于XEN和他们的build议。 请注意,如果您计划运行共享iSCSI(即一个ISCSI目标,即模拟光盘,在多台计算机之间共享) – 您只能执行那个文件系统。 大多数场系统不会 – 驱动程序会认为它拥有光盘,没有其他人写入。 Havung多个计算器连接到一个ISCSI目标,并使用不可共享的标准文件系统在倒数计时器上运行 – 如果您执行任何写操作,您将幸运地在5分钟内不会出现数据损坏。
我只能回答部分问题。 iSCSI和NFS是根本不同的野兽。 NFS是一个共享文件系统,其基本构build块就是文件。 另一端的iSCSI是一个联网的块设备,它就像本地磁盘一样以块的forms访问。 最重要的是,你将添加一个文件系统。 通常,您应该将iSCSI视为SCSI(或FC),而不是networking,即一个iSCSI磁盘属于一个服务器。 您可以共享iSCSI设备(就像FC设备一样),但是您必须使用Oracle的ocfs2或RedHat的gfs(我不知道Windows的情况)等集群感知文件系统。
如果你打算共享数据,那么NFS可能是最好的select,如果你想拥有类似数据库的东西,iSCSI可能是更好的select。
希望这可以帮助。