IOPSdevise瓶颈?

我正在构build用于Windows 2012 R2存储空间的45个驱动器(backblaze)存储窗格。 规格为2xE5-2620 v2 CPU,32 GB RAM,3xLSI 9201-16i卡,9×1 TB SATA SSD和36×4 TB HGST ultrastar SATA驱动器。 假设50/50读取/写入,驱动器的原始数据时钟为840000 IOPS。 LSI卡可以处理每卡400k + iops。 假设我把驱动器放在一个3路镜像中,我将拥有48TB的磁盘存储,使用SSD作为分层存储。 这样的系统会遇到什么瓶颈呢? 它会是内存或CPU或LSI卡或驱动器本身? 我们能看到iops中接近理论最大值的50%吗?

这真的取决于你将在系统中做什么。 这是通用的build议; 对于Windows Storage Spaces解决scheme,相对于传统文件系统,ZFS相同。

想想这样:

  • 你正在使用一堆容量优化的磁盘,所以无论你在做什么似乎都涉及到大量的数据。
  • 当人们谈论大型数据集时,应用程序通常是备份或者其中活动工作数据集只是磁盘上数据的一个子集。
  • 如果目的是备份,为什么具体的IOPS很重要?
  • 如果目的是一个相对较小的工作集的其他应用程序,我假设它可以在SSDcaching层处理。
  • 如果随机读写性能很重要,这是错误的解决scheme。
  • 你将如何从服务器上下载数据? 如果有的话, 将是你的尝试瓶颈。
  • 先进的文件系统幸运的不需要太多的CPU马力。 您的CPU是我通常在ZFS存储系统中规定的。 你可能需要更多的RAM,但我不知道WSS如何利用物理内存的细节。

事实上,你的问题可能是SATA磁盘超时 ,驱动器故障,控制器问题(固件),电源和冷却,振动…和错误 。 我们在这里很less听说Windows Storage Spaces,所以我的猜测是这个行业的思路很less。

为什么我可以这样说呢? 我必须pipe理Backblaze设备,并且个人拥有一台装满SATA磁盘的Sun x4540 ( meh )。 即使使用所有这些磁盘,这种设置实际上只适用于顺序和stream式工作负载。