ESXi 5x:每个path的IOPS数量发生了显着的改善

我有点尴尬,我从来没有见过或使用-iops参数作为esxcli选项的一部分。

我偶然发现了一篇文章,并且在使用各种块大小和读/写值之前和之后进行了基准testing,并且发现即将部署的v3700 SAN的性能不受欢迎,而不pipe磁盘configuration如何。

通过在堆叠交换机上使用Solarwinds免费的SNMP带宽监视器监视8个iSCSI接口的吞吐量(这是一种主动/主动devise),我看到每个接口从120兆Mbps(或12%的利用率)跳到了325兆Mbps(〜33%的利用率) 。 其中一些甚至被盯住,这导致我认为这个特定的端口有丢包(在IOMeter工作完成之前没有机会检查端口统计)。

那么这里的缺点是什么,除了过度饱和特定的path(链接)? 什么是人们正在使用的安全和快乐的设置? 似乎太好,是不对的。

我使用VMware运行的大多数iSCSI MPIOconfiguration都使用SAN供应商推荐的pathselect策略。

对于循环法,我使用的大多数存储系统都build议在将path从默认值1000切换到1之前,降低默认的I / O操作数。


编辑:我最近的工作有一个v3700。 IBM的最佳实践(请参阅第12页)反映出path应该在ESXi 5.1上修复,并在5.5上循环。 为了调整,我们调整了1 I / O操作。