以太网上的SAN

我们正在寻求将我们的基础设施从办公室迁移到COLO。

目前,我们使用商用硬件运行机架式白盒服务器,ESXi 4作为虚拟机pipe理程序,为内部开发/ DC / Exchange等9台虚拟机供电。

我们正在考虑使用SAN进行存储,并且已经提出了一个networking图,它允许我们使用物理服务器上的备用以太网端口连接到另一个服务器 – 这是build议SAN使用的服务器。

问题是,这个应用程序的以太网端口是否足够? 它是一个千兆以太网端口。 过去我使用过光纤,但没有使用以太网。

这些家伙( http://www.datacore.com/ )有一个通过以太网提供SAN的方法。

拟议的物理结构如下:

替代文字

虚拟机看起来有点像这样(如果顶级服务器是SAN,pfSense和eth1之间的连接将被删除):

替代文字

对于iSCSI和适中的工作负载,我已经有了很好的运气,但是单个千兆位连接能否跟上您的环境,当然不是我们能够帮助您确定的。

我立即注意到的一个明显的漏洞是,通过仅使用单个端口来存储,您就没有select进行故障转移或负载平衡的选项。 当然,如果你只有一个单一的SAN(这似乎是这种情况),那么你也有一个单一的失败点。

iSCSI是VMWareauthentication解决scheme的一种方法,所以它已经足够了。 无论在确切的使用情况下是否足够好,我们都无法从这里得知。 虚拟机工作负载往往是非常高的随机性,存储function的扩展比磁盘的数量要多于原始容量。 如果SAN有比现在使用的直连存储更多的实际磁盘,则不必担心。

你不得不担心的是吞吐量。 3G SAS比1Gb以太网快,这就是它的全部。 但是,对于高度随机化的工作负载,您可能无法在SAS上推送1Gb。 这一切都取决于。

你可能会好起来的,但唯一的办法就是尝试一下。

以太网上的SAN是非常可行的。 但是,如果问题在您的环境中取得成功,那么您的磁盘使用情况将会受到影响。 如果你的要求是磁盘密集,那么它可能不足够。

既然你已经拥有了所有的硬件,为什么不试试呢。

我已经使用Oracle数据库上的GB网卡与SAN / NASarrays进行多年的交谈,使用没有性能问题的iSCSI。 我对stream量真的很lessstream量感到非常惊讶。 小到足以让我的供应商卖给我更多的网卡。

我也用类似的方式使用了NFS上的VMware,使得更多的客户遍布在几台服务器上,而且使用起来也很麻烦。

我现在用ESXi的configuration在单个冗余的GB链路上通过NFS运行17(很快很可能在今晚晚些时候)。