什么是服务器机房的正确温度?

当我在我们的服务器房间工作时,我注意到它非常冷。

我知道服务器机房必须冷,以抵消服务器的热量,但也许太冷了。

什么是适当的温度来保持我们的服务器室?

    关于服务器室温度的build议差别很大。

    本指南说:

    一般build议build议您不要低于10°C(50°F)或高于28°C(82°F)。 虽然这看起来范围很广,但这些都是极端情况,保持环境温度在20-21°C(68-71°F)左右更为常见。 由于各种原因,这有时可能是一个艰巨的任务。

    关于Slashdot的这个讨论有各种各样的答案,但其中大部分在上面引用的范围内。

    更新 :正如其他人所评论的那样, Googlebuild议数据中心使用26.7°C(80°F)。

    此外, 美国采暖,制冷与空调工程师协会 (ASHRAE)最近更新了推荐的温度范围 ,温度范围为18°C-27°C(64.4°F-80.6°F)。

    然而,这篇文章再次强调,在这个问题上仍然没有达成共识。 正如文章中提到的那样,我会强调:

    …调高温控器也可能使冷却失效恢复的时间更less,只适用于对设备冷却条件有深入了解的公司。

    国际海事组织大多数公司对冷却条件的理解不够深刻,因此在小型企业环境下运行冷藏室会更安全。

    注意:需要注意的是,在服务器/数据室中需要考虑的因素还有很多,比如温度,空气stream量和湿度也是重要的考虑因素。

    正如其他人所说,在70年代的低点F是好的。 但是,确保机架和硬件能够“呼吸”更为重要。 如果热空气被困在机架中 – 或在服务器机箱中 – 那么低的环境温度将不会有什么好处。

    Google的数据中心最佳做法build议80度。 我们跑在72,但是我再也不完全相信我们自己的房间是devise在气stream的考虑。

    我的服务器房间设置为69度。 我们有一个空调机组,服务于这个房间,它每天24小时运行,使房间全年保持在69度。

    18°C(65°F)。 它有点冷,但如果失败了,它会给我们一些额外的宝贵的时间,在它变得难以接受之前做出反应。

    我所见过的所有服务器机房通常在20°C至25°C之间,但是从经验来看,我注意到硬件对温度变化的敏感程度高于给定的温度。 我经常看到硬件失效,例如4-5°C,即使是从20到25。

    所以稳定是关键,当然也是空气stream动。

    请记住,谷歌80°F的build议几乎不包括因意外负载或空调故障导致数据中心过热而closures数据中心。 它们还包括对关键部件的气stream进行更好的控制。

    我们喜欢在19C和23C之间的报警在28C – 我们是一个98%的惠普刀片的地方,所以如果我们达到这个警报水平的事件,某些服务器/机柜“把他们的灯芯”,以降低整体功耗这就是所谓的thermalogic)。

    根据我的经验,这取决于设备。 我知道一家公司有三个服务器机房。 一个保持在80°F左右,另一个服务器较less,温度在72°F左右,而第三个只有两个服务器,温度在65°F左右。 我在那里的时候从来没有遇到过问题,但是像其他人所说的那样,75°F或者稍微低一些的话可能是最好的,因为如果AC熄灭,它会给人一点肘部空间。

    任何超过30c的空气import我们发现会导致温度警告(我们监测),一般来说,这意味着室温低于25℃。

    在澳大利亚,爱默生(Liebert)认为21c是标准,我在这里的每个房间都是一样的。

    如果你的房间足够大看热a /冷a,bla砖等类似的东西,它们确实可以提高散热效率。

    我在海军。 在我们的船上,我们把房间保持在华氏65度以下。 我们会在红海中心,外面是120度。 我们会穿着毛衣,手套,大衣和外套,走出空间(62度),每个人都会像我们疯了一样看着我们。 其他人都穿着T恤衫,疯狂地出汗。

    问题是,我们的冷却系统并没有很好的去除湿度。 所以,如果外面潮湿,温度上升到70度或更高,它开始变得粘稠的空间。

    这个问题没有硬性的答案。 这很大程度上取决于计算机的types和数据中心的devise。

    在这个slashdot讨论中的关键之一是真正的困难是处理热点和气stream 。

    室内凉爽的环境温度是冷却室内数千个热点的简单方法。 但效率不高:数据中心冷却整个房间时,真正需要的是冷却服务器的热部件(CPU,存储器,存储器, 电源等)。 许多托pipe设施的客户有不同types的硬件(115V或208V,好的devise,坏的devise)。

    数据中心还需要保持足够的冷空气,以便在停电时提供缓冲 。 冷空气的缓冲意味着UPS和发电机工作较less。 想象一下,一个数据中心一下子就失去了100%的功率(所有的节点都下降了,冷却也下降了)。 节点可能没有电,但是硬件需要一定的时间来冷却,并且仍然会散热一段时间,这会使数据中心变得非常热。

    具有温暖的服务器机房的组织通常使用封闭的机柜和花式pipe道系统将冷空气直接通过热节点。 专门的电力基础设施可以帮助减less电力转换的热量。 即使服务器机房的环境温度很高,这也可以使节点保持足够的冷却。 这些组织通常对其硬件的大部分方面进行严格的控制,并且可以根据自己的需要定制devise整个数据中心 。 他们可以投资并获得收益。

    首先:你在哪里测量室温? ;-)什么是机架冷端温度? 什么是机架热点? 什么是A / C摄入温度?

    这真的取决于设备。 (感受来自Xbox的热量)热pipe理是一门科学,看本田(和其他许多人)正在开始冷却排气;-) …

    我会告诉你,在我所在的数据中心中,

    Equnix在那里保持着DC的冷静(当执行官去巡演时可以获得很好的“经验”)

    RW让他们温暖/热80f左右从地板出来的寒冷的空气(更好的房间/拱顶devise和更高质量的系统devise总体)

    Coresite(至less在我所在的地方)与RW更接近,但取决于CR和客户。 一些CR在80年代有些在70(冷岛总是冷)

    您真正希望监控的温度是内部服务器温度 – 而不是外部环境温度。 观察服务器温度(所有服务器都有内部温度计,通过服务器接口报告),并相应地调整环境温度。 这将考虑到空气stream动等。有一个备用冷却计划是一个好主意,即使便携式空调机组可以是救生员,如果有一个主要的冷却系统故障。

    我发现19-21温度很好。 Google运行其服务器机房的温度要稍高于他们预期的温度,因为他们发现稍微高一点的故障率比支付额外的冷却费用更好。