NTFS性能在大于5或6TB的体积下是否显着降低?

我的一位客户正计划build立一个新的文件存储,每年可能增长1-2TB。 我的一位同事说,如果单个NTFS卷大于五个或六个TB,那么Windows的性能是非常差的。 他认为我们需要多卷build立自己的系统,以免单个卷的数量超过这个限制。

这是一个真正的问题吗? 当卷大小达到几兆字节时,Windows或NTFS会减速吗? 或者是否可以创build10个或更多TB的单个卷?

之前我已经做了30TB的卷。 他们拿着大文件,这大大有助于避免性能下降。 没有问题,而小容量。

那里可能会出现的问题是,如果大文件系统build立足够的文件和目录,以达到疯狂的大范围。 我在说2000万个文件和目录或更多的级别。 在这一点上,MFT可能会相当分散,并且在内存受限的服务器上可能会引发一些目录显示性能问题。 实际访问文件不应该受到影响,只需fileOpen()和目录扫描操作。

这是一个真正的可能性吗? 是的,但是对于其他平台上类似的大型文件系统,出于同样的原因,效果也是如此。 此外,受性能下降影响最大的操作可能不是您所担心的。 由于这听起来像一个新的设置,听起来不像你将在只有1GB内存的服务器上使用这个10TB,所以你不必担心。

我们有一些比这更大的(使用W2K8),我们还没有看到任何明显的performance下降。

在与软件相关的问题之前,您很可能会遇到硬件性能问题。

考虑到这一点,

  • 磁盘:10x 1tb sata绿色磁盘可能会胜过5x 2tb磁盘。 其中一个原因是你将有更多的磁盘队列(DiskQueueLength)与samller磁盘一起使用。 但是,保持您的操作系统在一个单独的更快的音量。 RAID卡和它的caching也使得一些严重的性能考虑。
  • RAM:也影响可以打开的文件的数量和大小(PagedPoolSize)。
  • 网卡:会影响多less数据可以写到服务器上。 考虑让你的备份运行一个单独的网卡。 并使用适配器组合来将两个主NIC合并为一个。

目前我有两台服务器。 数据量为16TB和6TB的数据500万个文件/目录。 在一天结束时,200GB的数据已被更改或添加。 有100个用户连接到服务器。 当然,这些服务器使用DoubleTake实时复制数据。 没有人抱怨服务器的性能。

也就是说,这也取决于你想要实现什么。 例如Win2008R2上的MS DFS-R确实有限制,例如800万个文件和10TB每个服务器/卷作为官方答案。 但是我看到了20多TB的报告。

你也可以阅读这个,如果你想… http://www.microsoft.com/whdc/system/sysperf/perf_tun_srv.mspx