是否使用大的NTFS磁盘分配大小的文件共享有所作为?

我正在使用NTFS格式化驱动器,这将作为文件共享专用于用户集中存储文件。 这些文件可能会很大(10到100兆字节)。

有人build议,使用大于默认4k(例如64k)的大分配单元大小将使其性能更好。 我想我明白其背后的基本原则,但我不确定它在实践中是否有效。 这真的会有所作为吗?或者这可能会导致比解决问题更多的问题?

使用较大的文件时,较大的分配大小会提高性能。 如果他们都将是大文件,那么它可能会支付增加分配大小为32KB或64KB。

请注意,分配单元的大小越大,浪费的磁盘空间就越多。 无论存储在卷上的文件的大小如何,都是如此。 如果分配单元大小是64K,而你保存了一个50K的文件,14K将被浪费。 如果保存一个800K的文件,它将被分成13块,但是第13块只有32K的数据,导致32K的磁盘空间浪费。

有关NTFS驱动器性能调整的资源可以在这里find: http : //www.windowsdevcenter.com/pub/a/windows/2005/02/08/NTFS_Hacks.html

祝你好运,任何进一步的问题不要犹豫在问。

利马

设置分配块大小可以提高访问大文件的性能,但是不太可能提高networking文件共享的性能,因为其他瓶颈会使本地的好处变得更加困难。

有一些事情要注意:

  • 文件将占用更多的空间,所以如果你有很多小文件,这将是一个问题
  • 访问小文件的速度可能会比较慢,因为系统一次读取整个数据块(如果使用64Kb数据块,则读取1Kb文件的64Kb),但取决于驱动器的预读行为,这可能不明显
  • 当访问模式是非常随机的,并且/或者有很多并发进程通过networking访问资源时,您可能会发现它实际上会损害性能

我的直觉暗示,在必须用例中,你不会注意到有什么好处(或损害)性能,而且我的直觉是相当大的,所以我不倾向于与它争论,所以我会坚持使用更小的簇空间来提高空间利用效率。

我认为一般的想法是更大的=以磁盘空间为代价的更好的性能。

有一个在线的隆隆声,更改默认大小将导致严重编码的磁盘实用程序错误或失败,所以如果你打算不计划备份,你可能要记住这一点;-)