在某些情况下,“企业”驱动器可以靠近/中线安全地更换吗?

在指定服务器的时候,比如(我会假设)许多不是存储专家的工程师,我通常通过在最less10k SAS驱动器上进行标准化来实现安全(也许是市场营销的奴隶)(因此是“企业“等级为24×7的工作周期等),用于”系统“数据(通常是操作系统,有时是应用程序),并保留使用7.2k中/近线驱动器存储非系统数据,其中性能不显着因子。 这都是假设2.5“(SFF)磁盘,因为3.5”(LFF)磁盘只对高容量,低IOP要求非常有用。

在没有大量非系统数据的情况下,我通常会将它放在与系统数据相同的磁盘/arrays上,这意味着服务器只有10k SAS驱动器(通常是“一个Big RAID10”types这些天设置)。 只有在非系统数据量很大的情况下,我通常会考虑把它放在一个单独的7.2k中/近线磁盘arrays上,以降低成本/ GB。

这使我想知道:在某些情况下,RAID10arrays中的10k磁盘是否已被replace为7.2k磁盘而没有任何重大的负面影响? 换句话说,我是否坚持使用至less10k个“企业”级磁盘,有时候会过度专注(并且让硬件厂商保持高兴),还是有充分理由始终坚持这一点?

例如,为一个典型的小型公司(比如说50个用户)提供一台虚拟机作为虚拟机pipe理程序。 该公司具有平均的I / O模式,没有特别的要求。 典型的9-5,周一到周五的办公室,备份每晚运行几个小时。 虚拟机可能可能是DC和文件/打印/应用程序服务器。 服务器有一个带有6个磁盘的RAID10arrays,用于存储所有数据(系统和非系统数据)。 对我的非专业人士来说,看起来好像中/近线磁盘可以做得很好。 以HP磁盘为例:

  • 工作量:中线磁盘的工作负载小于40%。 由于办公室每天只能开放9个小时,在此期间平均I / O几乎不可能接近最大值,工作量似乎不大可能超过40%。 即使在晚上进行了几个小时的I / O备份,我的猜测仍然是低于40%
  • 速度:虽然磁盘只有7.2k,但通过将其分布在六个磁盘上可提高性能

所以,我的问题是:坚持至less10k SAS硬盘是合理的,还是7.2k中线/近线硬盘实际上在许多情况下都足够了? 如果是这样的话,我该如何判断线路的位置,避免因安全起见而成为无知的奴隶?

我的经验主要是惠普服务器,所以上面可能有一个惠普倾向于它,但我会假设原则是相当独立于供应商。

这里有一个有趣的服务器devise,磁盘技术和经济学的交集:

另请参阅: 为什么大型磁盘(LFF)磁盘还相当普遍?

  • 向密集机架式和小型服务器的转变。 例如,你们看不到主要制造商提供的许多塔式产品,而更密集的产品线更经常修改,并有更多select/可用性。
  • 在3.5“企业(15k)磁盘开发中的停滞 – 600GB 15k 3.5”大概是你可以去的大。
  • 在2.5“近线(7.2k)磁盘容量缓慢推进 – 2TB是最大的,你会发现那里。
  • 提高高容量固态硬盘的可用性和降低定价。
  • 将存储整合到共享存储上。 需要高容量的单服务器工作负载有时可以通过SAN提供服务。
  • 全闪存和混合存储arrays的成熟以及存储初创企业的涌入。

以上就是为什么你们一般会find专注于具有8-24个2.5“磁盘驱动器托架的1U / 2U服务器的厂商。

3.5英寸磁盘适用于低IOP高容量的使用情况(2TB +),最适合外部存储机箱或SAN存储,在企业15K RPM的速度下,最高可达600GB。

2.5“10k RPM旋转磁盘可满足更高的IOPS需求,一般可提供高达1.8TB的容量。

2.5“7.2k RPM旋转磁盘是一个不好的通话,因为它们不具备容量,性能,寿命和价格优势,例如900GB SAS 10k磁盘的成本非常接近1TB 7.2k RPM SAS的成本,不同的是,900GB硬盘是比较好的select,例如1.8TB的 10k SAS和2.0TB的7.2k SAS ,价格也非常接近,保修期分别为3年和1年。

因此,对于服务器和2.5“内部存储,使用SSD或10k。如果您需要容量需求,并有3.5”驱动器托架内部或外部可用,使用7.2K RPM。

对于你所描述的用例,你并没有过度configuration服务器。 如果他们有2.5英寸的硬盘托架,那么实际上应该只使用10k SAS或SSD,中线硬盘在性能,容量,性能方面都有所损失,而且保修时间明显缩短,而且不会节省很多成本。

至less有一些事情可能会导致一些驱动器types的问题:

  • 驱动器无意处理具有多个驱动器的机箱的振动负载(任何指定为具有RAID / NASfunction的驱动器都不太可能出现问题)

  • 不允许TLER的固件,或需要耗费时间的驱动器手动重新configuration才能启用(同上)

  • 从未使用过的RAID控制器进行过testing的驱动器,并可能具有无法识别的错误,在这样的设置

  • 内部驱动器写入caching的行为方式(物理写入无序或非常延迟),在硬closures的情况下会造成很多混淆(应configurationRAID控制器强制closures这些caching。如果固件应该忽略那看见未经testing的驱动器:)

  • 驱动器可能会偶尔执行内部维护例程,使驱动器运行缓慢,或者响应时间过长,使RAID控制器认为其失败(与TLER相关)

  • 与通常实施的SATA相比,通常情况下,SATA与控制器上全部挂着或悬挂电子元件的驱动器(不是理论上的风险,某些磁盘+控制器品牌组合都喜欢该故障模式)相比,具有较less的安全措施。

巨大的问题:

(可能是一个小题外话 – 但我不重要

当你正在处理固态硬盘 – (往往是这样,或者可能是案件或诱惑) – 大量的固态硬盘有一个讨厌的问题,他们不能总是从自发的断电恢复!

这是HDD的一个问题。 硬盘驱动器通常有足够的电容为其逻辑供电,并且足够的angular动量承载盘片,通过完成写入512字节块 – 在电源中断写入的情况下。 一旦遇到难得的情况,这将不起作用,导致一种被称为“破坏性写入”的情况,在这种情况下可能会写入一个块。 部分写入(albiet罕见)将导致块上的校验和失败 – 即单个块将不好。 这通常可以被磁盘电路本身检测为不良,并由上游RAID控制器纠正。

固态硬盘是不同的动物。 通常实现一种叫做“磨损平衡”的东西 – 他们不只是像硬盘那样把“块X”写到“块X”的物理位置上。 相反,他们尝试写入闪存介质上的不同位置,并尝试进行聚合或合并写入(使用一点缓冲)。 写入不同的地方需要保存一个写“地图”的地方,这些地图也是以减less损耗的方式进行缓冲和写入的。 部分损耗均衡甚至可能涉及移动设备上已有的数据,甚至还没有最近写入。

这个问题是,当SSD失去能力时 – 它在内存中有大量的数据(无刷新),它有一些数据已经写出到不同的/改变的位置 – 它有这些地图在自己的内存中需要冲出来,以了解设备上所有数据的结构。

许多 SSD没有逻辑或电路能够保持他们的控制器和足够长的自发电源,以安全地冲洗所有这些数据在闪存之前死亡。 这并不仅仅意味着你写的一个区块现在可以成为jeder,而是其他区块 – 甚至设备上的所有区块都可能陷入麻烦。 许多设备也会遇到问题,不仅会丢失设备上的所有数据,而且设备本身也会变砖,无法使用。

这是所有真实的理论 – 但是(在存储行业工作) – 我/我们已经在太多的设备上看到过这么多次的事情 – 包括我们自己的一些个人笔记本电脑!

许多供应商已经讨论过制造“企业级固态硬盘”的地方,专门添加设备(“超级电容”)和其他电路以允许干净的“冲洗” – 但是很难find任何特定的设备作为它的一部分数据表,它有足够的,明确的,经过testing的保护免受这种事件,并将保护免受这种事件。

显然,如果您从采用闪存技术的顶级供应商那里购买“高端存储arrays”,那么他们的驱动器 – 或者他们的系统总体上已经devise好了。 确保它有!

关于你的问题的问题是:如果你有一个RAIDarrays – 和一些磁盘是没有这种保护的“坏”固态硬盘 – 如果你得到一个“自发的停电” – 你可能会失去所有的数据在磁盘无法实现RAID重build。

“但是我使用UPS”

一般来说,“自发停电”可能包括BSOD和内核locking/崩溃/恐慌等情况,在这种情况下,您无法通过拔下系统上的插头来恢复。