人们实际用于VMware ESX服务器的是什么types的存储?

VMware和许多networking传播者试图告诉你,复杂(昂贵)的光纤SAN是VMware ESX和ESXi服务器的“唯一”存储选项。 嗯,当然是的。 使用SAN是快速,可靠的,并使vMotion成为可能。 大。 但是:所有的ESX / ESXi用户真的可以承受SAN吗?

我的理论是,在这个星球上的所有VMware ESX安装实际上不到20%实际上使用光纤或iSCS SAN。 大多数这些安装将在大公司谁可以负担得起的。 我预测大多数VMware安装使用“附加存储”(vmdks存储在服务器内的磁盘上)。 他们中的大多数都在中小企业中运作,其中有很多!

我们运行两台具有附加存储的ESX 3.5服务器和两台具有iSCS san的ESX 4服务器。 而两者之间的“真正的现实差异”几乎不显着:-)

你知道这个问题的官方统计吗? 你用什么作为存储介质?

我做了很多VMware咨询工作,我想说的是,这个百分比接近已安装使用的高可用性共享存储(FC,iSCSI或高端NAS)的80%,我的很多客户都是SME。 我发现的关键因素是企业是否将服务器的正常运转时间视为至关重要,对于今天的大多数企业而言。

您当然可以从直接连接的存储中运行非常高性能的虚拟机(HP DL380 G6,在RAID 10arrays中有16个内置驱动器的磁盘IO速度会非常快),但是如果要构buildVMware或任何其他虚拟化环境以replace数十个,或成千上万的服务器,那么如果你没有花费大量的精力(可能是金钱)到一个强大的存储架构中,那么你是疯了。

您不必为集群function购买高端SAN,您可以使用相当便宜的NAS(或HP \ Lefthand的VSA等虚拟化SAN)来实现这些function,并仍然使用经过authentication的存储。 但是,如果您使用的是共享存储,并且SAN \ NAS基础架构中的所有点都没有冗余,那么您不应该仅仅使用它进行testing。 冗余(至less)您的服务器中的双(独立)HBA \存储NIC,双独立光纤,SAN中的冗余控制器,电池备份caching\caching降级,冗余热插拔风扇和电源等,RAID 5 \ 6 \ 10 \ 50和适量的热备件。

系统之间的真正的活跃区别在于,如果您的某个独立系统发生灾难性故障,则需要进行大量的工作才能恢复,并且会导致停机并导致系统发生故障。 使用集群SAN连接系统,修补虚拟机pipe理程序,甚至升级虚拟机pipe理程序硬件,都可以实现零宕机。 一个灾难性的服务器故障只是简单地将服务closures一段时间,以便在单独的节点上重启虚拟机(最坏的情况),或者如果您具有涵盖这些虚拟机的容错能力,那么您根本没有停机时间。

作为一家公司,我们有超过一千台主机,我们从FC开始,尝试iSCSI一段时间,但由于性能问题退到FC。 我们正在认真研究NFS,但还没有结论。 哦,我们使用惠普XP / EVA和一些NetApp,我们没有本地存储吧桌面/开发主机。

正如您所看到的,没有一个适合所有人的尺寸,并且不需要单一类存储解决scheme。 您可以有多个存储类,具体取决于可用性和性能要求

对于高性能的写入和读取,我发现FC在性能上是无与伦比的,而价格却很高…对于更普通的性能预期来说,它只是工作… iSCSI实际上performance非常好,所以我通常得到交换FC磁盘子系统上的服务器邮箱文件以及iSCSI接口磁盘上的实际引导驱动器,DNS服务器和Active Directory计算机也从iSCSI运行。

我已经与SAN,NAS和DAS运行ESX。 完全取决于:

  1. 预算
  2. 经验
  3. 数据中心和/或机架空间

为了可靠性和速度,我不认为你能击败SAN。

为了可靠性和成本,我会去NAS。

而为了速度和成本,DAS。

并不是说个别选项不会重叠,但是这些都是我所见证的优势。

我们运行4台ESX 4服务器,并使用EqualLogic iSCSI SAN。

在较小的安装情况下,本地存储是完全可以接受的,只要你有体面的磁盘 – 我会说10K RPM + SAS驱动器。 唯一一次你必须使用共享磁盘(我故意没有说你的共享磁盘可以closures和NFS共享)解决scheme是当你需要做群集 – VMWare HA和DRS。

目前我们有3层存储 – FiberChannel SAN,高端Equalogix SAN和低端MD3000i SAN。 最后两个是iSCSI。 我们还在ESX服务器的本地存储上运行了一些服务器 – 大多数是公用服务器,我们不在乎它们是否停机一两个小时,而如果一切事情都在一个盒子上出现,我们会解决这个问题。

我们也正在使用7.2k SATA驱动器和iSCSI企业目标(我们的performance并不是那么好,但是让我们受益)运行我们的testing环境。

大部分人都倾向于在更大的环境中对付NFS的份额。 我一直想玩这个游戏,但是没有find时间。

我们运行了四台(呃,四台现场,一台用于testing)ESXi主机,其中包含一个由商品交换机构build的iSCSI结构,以及一个低端日立SAN – 一个SMS-100。

即使在这个级别上,我们也有双控制器,每个控制器都有一个双端口连接到SAS背板,因此控制器可以抓住磁盘,双胞胎 – 我们交叉连接到双交换机的双绞线,以及双绞线的ESX主机。

每个vfs卷都有四个可见的path,所以它是相当宽容的。 我们使用戴尔供电交换架构 – 他们有潜在的问题是肯定的(最重要的是,没有多余的PSU)..但是它们也便宜得足以在一个盒子里准备好两个预先configuration的备件交换成为一个真正的可能性。

很明显,如果你想要更多的九,你需要花更多的钱,但我认为,iSCSI,ESXi和商品千兆以太网套件的美妙之处在于,你可以在弹性和性能方面超越你的分量。

一切都有其优点和缺点…底线是SLA,应用程序负载和规模。 因此,如果你需要一个小型部署(1-5台主机)的高性能存储,你可以用NFS来实现(我实际上曾经使用NFS实现了比使用RAM磁盘的SAN更好的延迟)。 现在尝试扩展,你会发现大规模复制你的设置的成本是相当不错的SAN使FC成为阅读的唯一合理的select…大多数时候,我最终使用各种服务的组合(应用程序,数据库,备份,档案)不是一个单一的平台来优化成本,取决于需求。