适用于vCenter群集的iSCSI SAN

我正在为ESX主机的VMWare vCenter群集设置SAN。 我希望它成为虚拟机的主要存储设备。 最终将有多达10台主机。

我正在创build一个在Poweredge R610上安装FreeNAS的testing环境。 如果顺利的话,我们可能会购买R720或者很多驱动器托架。 我在R610的硬盘上有一个RAID-Z,带有一个120GB的SSDcaching。 我计划将此服务器连接到启用巨型帧的专用/隔离千兆交换机,并且所有主机都将连接到此交换机以用于iSCSI。

这是我迄今为止。

  1. FreeNAS是一个很好的select吗?
  2. 我如何在VMWare端进行设置? 我是否通过iSCSI将每个主机单独连接到SAN? 还是直接将其添加到vCenter? 我希望能够轻松地跨主机平衡虚拟机,而不必传输VMDK,我认为这是相当隐含的,因为它们都将在SAN上。

任何帮助,提示,从经验中学到的东西将不胜感激!

我应该注意到,我从来没有设置SAN / iSCSI,所以我正在踏入新的水域。

编辑这篇文章已经帮助我认识到,我将需要投入大量的一些更高端的networking设备,使这个执行方式,我想要的。 时间重新评估!

这个问题在很大程度上取决于您的VMware vSphere许可层… ,您要运行的应用程序和VM以及您需要的存储空间和性能configuration文件的数量。

首先应回答的问题是,作为一个能够正确授权vSphere集群中10台 ESXi主机的组织,应该准备好比您计划的更高端的存储解决scheme和networking主干。 (许多主机的正确许可水平的Ballpark价格约为$ 10万美元。)

我认为这个问题的范围有点太宽泛,因为对于所有规模的VMware安装都有确定的devise原则。 我会尽量总结一些想法…

特定于ZFS的注意事项:

  • 在几乎所有的使用情况下,RAIDZ都是虚拟机使用的糟糕select。 它也不会允许你随着时间的推移你可能需要的扩展 。 使用镜像或三镜像将更好地处理虚拟机的随机读取/写入I / O模式。 对于ZFS的最佳做法,请查看关于ZFS的事情NOBODY
  • 在基于ZFS的解决scheme中SSDselect非常重要。 您有L2ARC和ZILcaching选项。 它们分别被读取优化和写入优化。 您在每个应用程序中使用的SSD的特性是不同的。 用于ZFS高速caching的高质量SAS固态硬盘为1500美元+美元。
  • FreeNAS不是一个强大的VMware目标。 它以糟糕的performance而闻名。 如果你使用ZFS,可以考虑像NexentaStor这样的产品 ,它可以运行在相同types的硬件上,但与VMware的存储硬件加速 (VAAI)兼容,并且具有一定程度的商业支持。

VMware vSphere说明:

  • 确定您在VMware中需要哪些function。 vMotion , Storage vMotion , 高可用性 , 分布式资源调度等都是有用的群集pipe理function。
  • 快速授权指南:提供vMotion的最低VMware层是Essentials Plus软件包@〜$ 5000美元。 只能容纳三个 2-CPU服务器。 价格从那里跳得很厉害。 10万美元或更多,与主机服务器的数量进行扩展。

networking笔记:

我在日常工作中运行大型VMware群集。 当我处理三台以上的主机时,我开始依赖存储arrays和交换机之间的10GbE连接。 我与个人主机的连接可能保持1GbE,但通常也是10GbE。

从数据中分离您的存储networking。 巨型帧并不总是性能的关键。 如果您启用它们,请确保它们在path中的每个设备上端对端configuration。

FreeNAS的生产环境? 我不会推荐的。

不过,在每台主机上,您需要添加软件iSCSI适配器(从每个主机的“configuration”选项卡上的“存储适配器”节点),然后您需要相应地configurationiSCSI适配器以连接到iSCSI目标。 将iSCSI适配器连接到iSCSI目标后,您需要扫描其中一台主机上的新存储设备,并从发现的iSCSI目标块设备创build新的数据存储。 然后,您将从每个其他主机连接到新创build的数据存储。 然后,您可以将您的VM存储移动到iSCSI SAN。

您需要特定的版本或工具包才能将VM上的已启动虚拟机从一台主机移动到另一台主机,并/或移动虚拟机存储。

  1. 为了testing? 当然,为什么不呢。
  2. 每个ESX主机都需要连接到iSCSInetworking。 尽量不要与LANstream量共享这些iSCSI适配器,所以这可能意味着一旦您开始添加多path或聚合,就需要在每台主机上安装一堆网卡。 对。
  3. vCenter计算机不需要任何连接到iSCSInetworking,除非您正在做的事情需要这样做。

由于您使用的是戴尔服务器,因此您可能需要考虑戴尔的EqualLogic或更低端的MDS系列iSCSI SAN ……我并不是build议他们使用戴尔服务器更好,但是我已经使用了它们4年多了,我真的很喜欢他们,如果你需要的话,支持很好。 他们有10Gbps的型号,但是你也需要10Gbps的交换机。 我们已经看到了非常好的吞吐量,我们新的型号EQL有4个网卡,但是我们只有3个1Gbps网卡的老一套网卡性能也很好,4-6个Hyper-V和ESX主机都有应用程序和运行Windows和CentOS的数据库服务器。 底线,不需要10Gbps,iSCSI被广泛部署,多个1Gbps和MPIO。

在标准服务器上运行FreeNAS并不坏,但如果服务器出现故障,则存储设备closures。 像EQL或类似的专门build立的arrays通常与双控制器一起运行,除了双电源和RAID …更less的停机时间。

巨型框架是好的,但老实说,我们有东西没有运行,没有明显的差异。 单独的交换机是好的,但不是必需的,你可以使用VLAN …我真的推荐两个交换机冗余存储stream量VLANclosures,如果预算是一个问题。