VMware ESXi和ZFS硬件和configurationbuild议

我想最终花一点钱升级我公司的虚拟化基础设施,但是我现在已经在看硬件了几个星期了,我不太清楚什么是适合我们的需求的。 除了购买一些实际的服务器硬件外,我还想用VMware ESXi来replace现有的VMware Server。 最初的预算可能在2000美元左右,但如果我们稍后需要调整性能,最终可能会扩大到3000美元。

在阅读了有关StorageReview上的RAM错误和硬盘故障率的一些可怕的文章(以及自己处理多个磁盘故障之后)之后,我想移动到ECC RAM,并且希望将我们的虚拟机存储在冗余的ZFS卷上以防止无声数据腐败和数据丢失。

注意:我知道关于VMware ESXi和ZFS硬件build议已经存在各种各样的问题,但我找不到有关使用存储在ZFS上的VM的VMware ESXi性能的任何讨论。

当前configuration

  • 在Windows 2003上的VMware Server
  • 速龙X2
  • 8 GB RAM
  • 2×250 GB SATA镜像(dynamic磁盘)
  • 2×640 GB SATA镜像(dynamic磁盘)

现在我们在Athlon X2上运行4个虚拟机,每个虚拟机8个内存。 偶尔我们需要启动一两个额外的虚拟机,性能会受到影响。 我们还想虚拟化一些额外的服务器,但是在接下来的几年中,我们不会再需要十几个服务器。 我读过VMware ESXi,因为它是一个裸机pipe理程序,并且有各种性能优化,所以性能更好。

虚拟机:

  • 2 GB RAM,Win2003(运行Fogbugz,包括MS SQL Server)
  • 512 MB RAM,Fedora Linux(运行MediaWiki,RT和Bugzilla等传统系统)
  • 2 GB RAM,WinXP(定期用于软件开发和testing)
  • 1 GB RAM,WinXP 64位(仅偶尔用于testing)
  • 1 GB RAM,WinXP日文(仅偶尔用于testing)
  • 1 GB RAM,CentOS Linux(经常用于软件开发和testing)

计划的configuration

ESXi服务器:

  • 入门级的戴尔或惠普四核至强服务器
  • 双核四核Xeon 55xx(一个CPU最初是Nehalem值多less钱?)
  • 8-16 GB ECC RAM(最大容量至less32 GB RAM)

我认为如果我从NewEgg中单独购买内存,将会让我回到1000-1,500美元,但是我不知道是否应该把更多的钱投入到新一代的Xeon中去,如果我把它放在第二个CPU上,或者如果我现在应该保存它。

其他VM:

  • 1.5 GB RAM,Windows 2003 Small Business Server(目前仅用作域控制器;很可能会很快被重build/replace)
  • 2 GB RAM,Windows 2003 Server(不常用的terminal服务器,以及用于开发环境不同部分的各种许可证服务器)
  • 其他一些Windows和Linux工作站虚拟机偶尔用于testing

ZFS服务器:

我想我可以通过安装其中一种免费的Solaris衍生产品,将当前的Athlon X2服务器重新定位为ZFS服务器。 (感谢MarkM指出,几星期前Oracle停止支持后,OpenSolaris小组解散了 – 我将不得不关注Illumos的开源叉的进展)。 我计划通过直接的千兆位以太网链路通过iSCSI将存储提供给ESXi。

该主板支持8个SATA驱动器,我想我会添加一个额外的4或8驱动器的eSATA机柜,所以我可以有几个ZFS镜像或raidz2卷。

为了保证数据的完整性,我可能会用ECC RAM来replace内存,并且可能会为ZIL / L2ARC增加固态硬盘来提高ZFS的性能,但是我不确定花在SSD上的钱是否会更好地用在SAS硬盘上。

有什么build议么?

鉴于这些规格,我正确的大servlets器? SSD和消费级/企业级7200RPN SATA驱动器的组合是否会给我们带来足够的磁盘性能,还是我们确实需要升级到SAS? 有什么需要注意的问题吗? 我错过重要的东西吗?

最重要的是,有没有人有过设置类似configuration的经验 – 如果是这样,它是如何执行的?

由于OpenSolaris已经死亡,Solaris 11已经过了6个月的时间,而且Illumos仍在进行中,您应该考虑Nexenta Core平台 (nexenta.org不是nexenta.com)。 如果您已经熟悉Ubuntu或Debian Linux,Solaris内核和debian(apt)userland可以快速学习。 如果您决定切换到Solaris 11 / FreeBSD,您可以随身携带您的ZFS池。 我在Linux下开始使用ZFS-Fuse,迁移到OpenSolaris,然后迁移到Nexenta:CP都在同一个池中。

我在家中的设置与您build议的ZFS存储服务器类似。 我发现双核2.8Ghz(Core i5-650),8GB ECC Ram和4x2TB(WD RE4 7200RPM)镜像zpool没有固态硬盘相当的性能。 ESXi通过NFS或iSCSI连接,而Win / Mac客户端通过CIFS连接。 我很容易饱和一个千兆位连接(约95MB /秒),磁盘在本地的吞吐量甚至更好。 老实说,在家里没有足够的networking设备或IOPS负载来查看有多less延迟可以从ZIL和L2Arc的固态硬盘中获益,但是很快会为L2Arc增加更多的内存和固态硬盘来查看我是否真的可以重复数据删除工作很快。

我认为给予足够的RAM(8GB +),一个体面的SAS卡和镜像池,你的Athlon X2盒很可能完成任务。 在10k / 15k SAS上花费的恕我直言,金钱是ZFS的浪费,除非您计划利用多path/智能SAS机箱或卡在只有4-6个驱动器托架。 你提到eSATA; 考虑将多路SAS(4x)作为机柜连接的替代scheme。 除非您计划将1:1的esata端口连接到驱动器,否则您将需要4to1 / 5to1 eSATA端口倍增器,通过一个通道复用多个驱动器。 多路SAS(SFF 8088 / SFF-8470)是每根电缆四个真正的SAS / SATA通道,一端/两端都有分支电缆,具体取决于您的卡和机箱。 LSI SAS非RAID卡非常适合ZFS,即使在Nexenta也支持500美元的LSI SAS 9200-16e(Quad 6Gbps SAS 4x端口)。

至于ESXi机箱,任何一家大厂商的4/6核心服务器今天都能满足你的需求,但是不要指望能够在第二个处理器插槽上下功夫,升级定价可能是不合理的,甚至是不可用的被这个烧了)。 如果你打算使用whitebox ESXi(DR的第二个盒子),最大的问题是确保你在ESXi HCL上有一个网卡。 英特尔服务器网卡将可能工作,但许多板载英特尔e1000和RealTek不会。 ESXi甚至不会启动/安装,除非它find支持的NIC。 最便宜的PCIe插件网卡支持的是30美元的PCIe x1 英特尔千兆Ct桌面(EXPI9301ct) ,但如果这是您的主要esx盒,您应该一定要select一个更高端的多端口英特尔网卡,可能与iSCSI TOE。 不幸的是,AFAIK在ZFS方面没有TOE的支持(OpenSolaris / Nexenta)。

老实说,我认为你是在正确的轨道上。 为ESXi构build一个糟糕的ZFS SAN可能会适合您的需求,并为您提供一些增长的空间,特别是如果您坚持使用镜像(而不是RAIDZ)池。 一旦你的IO需求超过2xGigE,或者你得到了第二个ESXi主机,事情就会变得更加棘手(L3交换机,10GigE,4Gig FC等),但当你来到这个桥时,你将会穿越这座桥。 噢,尽pipeZFS相当稳定,快照function强大,但不要忘记,它不能替代正确的备份。

顺便说一句,谢谢你的问题链接到我早先的答案 。

就像notpeter说的那样,你正处于低预算安装的正确轨道。

我对你的build议(这是很难的):

  • 不要把所有的鸡蛋放在一个篮子里。 您应该认真考虑有一个额外的ESXi服务器,以防万一您发生硬件错误 – 这就是虚拟化
  • 买很多很多的RAM。 虚拟机性能更好,而且您的存储空间不太容易为客人写入/读取交换文件。
  • 除非您对IOPS有一些绝对的要求,否则低预算的SATA 7200 rpm设置将可以正常工作