我们正在为存储在SAN(DELL Powervault MD3000i,10x 500 GB SAS驱动器,RAID 5)上的VMware VSphere设置两台虚拟化服务器(DELL R710,2.3 Ghz双核四线Xeon CPU,48 GB RAM)将通过iSCSI连接到千兆以太网交换机(DELL Powerconnect 5424,他们称之为“iSCSI优化”)。
任何人都可以估计基于光纤通道的解决scheme(或更好的“感觉”)要快多less? 我不是指名义上的速度优势,我的意思是虚拟机能够有效运行多快?
我们是说速度的两倍,五倍,十倍快? 这是否合理的价格?
PS:我们不是在谈论大量使用的数据库服务器或交换服务器。 大多数虚拟化服务器的平均CPU负载低于3-5%。
这里有很多决定因素进入到表演的感觉。 一个你可能会考虑的调整是设置巨型框架。 Scott Lowe最近在这里有一篇博客文章,展示了他为实现这一目标所做的一些工作。
您提到客户将运行较低的CPU负载 – 这些对于虚拟化来说总是很好的select – 但是FiberChannel和iSCSI之间的差异并没有真正发挥作用。
如果您的虚拟机客户将要运行占用大量存储的操作,那么您必须考虑从VM主机向存储arrays传输读取/写入操作的速度可能成为您的瓶颈。
由于典型的iSCSI传输速率是1Gbps(通过以太网),而FC通常在2-4Gbps左右(取决于你愿意花多less现金),那么你可以说FC的传输速度大约是传输速度的两倍。
还有新的10Gig-E交换机,但你的Powervault和Powerconnect还不支持。
但是,这并不意味着这些机器的运行速度会更快,就好像它们运行的I / O较低的应用程序一样,它们实际上可能会以相同的速度运行。
关于哪个更好的争论是永无止境的,基本上取决于你自己的评价和结果。
我们有多个基于FC的迷你云和基于iSCSI的迷你云的部署,两者都工作得很好。 我们发现瓶颈在于存储arrays级别,而不是1Gb以太网上的iSCSIstream量。
你的主轴数量比你的运输速度更可能是瓶颈。
也就是说,FC的原始速度比iSCSI要快,但是如果你(假设)试图从6个主轴(物理磁盘)运行200个虚拟机,那么你将会看到比如果你试图运行200个虚拟机通过iSCSIclosures24个主轴。 在我们几乎空闲的实验室环境中,我们每个虚拟机运行大约2个NFS操作(240和117),所以可能会给出一些IO的概念。
我不认为你会看到很多基于传输的差异,除非你知道你有很高的连续IO(重型仪器数据日志stream?video存档?),我不知道现实世界的场景可能是这样的, 老实说)。
我真的不认为你会注意到运输,除非磁盘IOPS显着超过你的负载。 我会用其他标准来做出决定(pipe理的简易性,成本等)
上次我们添加存储时,我们在NetApp上使用了NFS。
这是一个非常明显的变化。 虽然说实话,当我最后一家公司推出基于VMware的共享主机时,我们正在从基于Linux服务器的iSCSI(虚拟iscsi)转向光纤,也就是testing环境。 我们的VMware代表表示,当需要访问共享存储的单个ESX主机上的多个虚拟机时,光纤的开销要小得多。 我注意到一个Win2k3虚拟机实例的性能提高了一倍,但是我在虚拟机上使用hdtunetesting的磁盘IO速度比我们戴尔2850的标准IO速度要快(如果内存满足我的要求,RAID 5上的RAID为3 x 73GB) 。 当然,我们正在运行大概5个虚拟机,每个ESX主机的使用率都很低,因为我们正在训练它。
你的VMware代表应该有大量关于光纤和iSCSI的文档,包括一些总体基准,或者至less是真实世界的实施案例/比较。 我们的代表确实。
如果您转向4Gbps或更高的FC SAN,我相信您会看到整体IO能力的翻番。
我们有大型的FC服务的VMWare服务器,存在降低存储成本的压力,所以我们开始使用NetApp 10Gbps iSCSI来构build新的扩展,我们遇到了性能问题,所以把它们全部移到了FC上,这是我们可以做的最好的事情 – 我们将每台主机的虚拟机数量翻倍,并获得与我们在iSCSI下看到的相同的性能。
当然,我们的混合虚拟机负载configuration文件可能会加剧这一点,但如果你能负担得起FC,那么我强烈要求你这样做。
我可以进入细节(事实上,如果提示的话,我会很高兴的),但最终iSCSI几乎是一个“无所事事”的产品,我们都知道免费午餐:)
我知道这个问题已经解决了,但是我build议你看看关于FC和iSCSI的这篇文章 。
虽然没有问到这个问题,但如果RAID 5是虚拟环境的不错select,那么你是否考虑过RAID 10?
我们有2Gbps的基于FC的SAN一切,并testing了4Gbps HBA,并没有看到任何性能差异。 瓶颈对我们来说总是在我们的驱动速度,此外,你可以有一个基于FC 8Gbps的SAN,如果你的arrays中的驱动器是SATA或甚至10K驱动器,仍然看不到任何性能增加,它也取决于RAIDtypes和arrays大小。 迈克还用“云”一词减去一个。