我在使用OpenIndiana 151a托pipe的NFS共享上写入性能不佳。 我有2个1 TB Mirror(希捷星座驱动器),2个SSD驱动器,1个读caching和1个写caching。 我的想法是,即使我有一个非常慢的硬盘,通过使用写入caching,我会获得类似性能的SSD。 我得到了40 MB / s的平均值。 我应该注意到,我的SSD驱动器都是SATA3 500 MB / s的能力。 我觉得被骗了 我的设置如下:




我正在运行一系列的IOmetertesting,当我完成后会发布结果。
我在这里看不到广告的SATA3速度,我只是更好地使用SSD作为直接附加存储? 换句话说,NFS是这里的问题吗?
这完全取决于你在testing什么和如何。 这是40Mb /秒的读写速度吗? 还是合并? 如果您的基准testing软件是全部顺序读取或写入,则很可能您将看不到SSDcaching单元的好处。
你的虚拟交换机设置应该看起来像这样。 我使用的是NexentaStor而不是OpenIndiana,但同样的原则适用。 存储服务器应该有一个带有VMkernel端口的专用交换机。 这是为ESXi主机提供NFS。 然后,向ESXi系统提交数据存储,并将虚拟机置于其上。 您不需要物理适配器,并且使用VMXNET3networking适配器,事情应该显示为10GbE。

据我所知,ZIL不是一个“写入caching”,更多的是高性能的日志,因此你仍然可以获得原始磁盘的速度。 虽然40MB / s比这还less,那么“你是怎么做这些testing”就起了作用。
更正:我被告知我错了,ZIL做双cachingfunction,但不知道如何/如果这是完全正确的。
vSphere使用同步装载所有NFS共享,这意味着所有写入都是同步完成的。 如果您将LUN安装在iSCSI上 – 所有专门的同步写入将是同步的,其余的将是asynchronous的。
然后回答关于SSD作为ZIL; 对于连续的写入(同步)数据stream,它将被限制为磁盘(给定的I / O模式)的写入速度。 ZIL对于实现高度随机iops比原始同步连续写入更有用。
在大多数情况下,顺序数据的数量并不像您可以处理多less个真正随机的写入和读取那样重要 – 尤其是在虚拟化环境中,您可能有许多不同的“客户端”正在访问存储。 如果您需要使用iSCSI而不是NFS来获得高吞吐量,请考虑asynchronous写入。