根据我对数据中心的了解和了解,没有太多使用水冷的服务器机房,也没有一个数据中心使用水冷(如果我错了,请纠正我)。 另外,使用水冷却购买普通PC组件相对容易,而水冷机架式服务器几乎不存在。
另一方面,使用水可能(IMO):
降低大型数据中心的能耗,特别是如果可以创build直接冷却的设施(即设施位于河stream或海洋附近)。
减less噪音,减less人们在数据中心工作的痛苦。
减less服务器所需的空间:
那么为什么水冷系统在数据中心级和机架/刀片服务器级上都不是很普遍?
是因为:
水冷却在服务器级别上几乎不是多余的?
与普通数据中心相比,水冷设备的直接成本太高?
维护这样的系统是非常困难的(定期清理使用水stream的水冷系统当然比真空清洁风扇复杂而昂贵)?
水+电=灾难
水冷允许比空气冷却更大的功率密度; 所以算出额外密度的成本节约(除非你的空间有限)。 然后计算水灾的风险成本(例如1%*您的设施的成本)。 然后做一个简单的风险回报比较,看看它是否适合你的环境。
所以我会在几个部分中打破我的答案:
首先有一些简单的规则:
如果比较水和矿物油与空气(相同体积)
水比空气好大约3500倍
石油在各种条件下都是不良导体,用于冷却大功率变压器。
现在对我上面所说的一些评论:比较是在大气压下进行的。 在这种情况下,水在100°C沸腾,高于加工者的最高温度。 所以当用水冷却时,水保持液体。 使用有机化合物如矿物油或氟利昂(冰箱中使用的)进行冷却是某些应用(发电厂,军用车辆…)的经典冷却方法,但长期使用直接与塑料接触的油尚未完成在IT行业。 所以它对服务器部件的可靠性的影响是未知的(绿色演进并没有说一个字)。 让你的液体移动很重要。 依靠在不移动的液体内的自然运动来去除热量是无效的,并且无pipe道地正确地引导液体是困难的。 由于这些原因,浸入式冷却远未成为冷却问题的完美解决scheme。
使空气stream动很容易,泄漏不会对安全构成威胁(效率很高)。 它需要大量的空间和消耗能源(15%的桌面消耗都送给你的粉丝)
进行液体移动很麻烦。 你需要pipe道,冷却块(冷板)连接到你想要冷却的每个组件,一个坦克,一个泵,也许filter。 而且,由于需要移除液体,所以维修这样的系统是困难的。 但是它需要更less的空间和更less的能源。
另外一个重要的问题是,如何devise基于空调系统和散热风扇的主板,台式机和服务器,已经有很多研究和标准化的问题了。 而最终的devise不适合液体系统。 更多信息在formfactors.org
冷却空气会降低其容纳水分(湿度)的能力,因此存在冷凝风险(对电子设备不利)。 所以当你冷却空气时,你需要去除水分。 这需要能量。 人的正常湿度水平约为湿度的70%。因此,您可能需要在冷却后为人们放回空气。
当您考虑在数据中心进行散热时,您必须考虑到其中的每个部分:
数据中心的成本受其密度(每平方米服务器数量)和功耗的驱动。 (其他一些因素也被纳入考虑范围,但不包括在本讨论范围内)数据中心总表面分为服务器本身,冷却系统,公用设施(电力…)和维修室使用的表面。 如果每个机架有更多的服务器,则需要更多的散热空间,以便散热。 这限制了数据中心的实际密度。
数据中心非常复杂,需要大量的可靠性。 数据中心的停机原因统计表明,80%的停机时间是由人为错误造成的。
为了达到最佳的可靠性水平,您需要大量的程序和安全措施。 因此,在数据中心的历史上,所有的程序都是为了空气冷却系统而制定的,如果不禁止数据中心的话,水被限制在最安全的地方使用。 基本上,水是不可能接触到服务器的。
到目前为止,没有一家公司能够提供足够好的水冷解决scheme来改变事实。
虽然我们确实有一些水冷机架(实际上是惠普机架,不知道是否还是制造这些机架),但是这些天直接水冷却有点老派。 大多数新的大型数据中心正在build设吸气隧道,你推入你的机架,然后拉动环境空气,排出或捕获重复利用收集的热量通过设备。 这意味着根本不需要冷却,并且节省了大量的能源,复杂性和维护,尽pipe它限制了系统使用非常特定的机架/尺寸,并且需要在前面留出备用的机架空间。
水是一种通用溶剂。 给予足够的时间,它会吃掉所有的东西。
水冷还会增加您在信息中提到的数据中心的复杂度(并且代价高昂)。
大多数数据中心的灭火系统在很多情况下都不包含水,其原因很多,水损害大于火灾损失,而且数据中心负责正常运行(使用备用发电机供电等) ,这意味着很难切断某些东西(如果发生火灾)给它喷水。
那么你可以想象一下,如果你的数据中心里有一些复杂的水冷却系统,在发生火灾时会放弃这个鬼魂? 让人惊讶。
我认为简单的答案是增加了相当的复杂性。 这不是一个空间问题。
如果你有大量的水来处理(pipe道,径stream等),则会增加很多风险……水和电混合不好(或者它们混合得太好,取决于你如何看待它)。
另一个与水有关的问题是湿度。 大规模的,它会把你所有的空调系统循环。 那么蒸发就会产生矿物质堆积,毫无疑问,这里其他的东西我都没有想到。
水不应该用于数据中心冷却,而是一种与电力混合非常好的矿物油。 见http://www.datacenterknowledge.com/archives/2011/04/12/green-revolutions-immersion-cooling-in-action/
即使解决scheme是新的技术是相当古老的,但是这种变化到现有的数据中心变得非常困难,因为您需要用新型机架replace现有的机架…
数据中心不使用水的主要原因是大多数水冷系统是原始的。 他们都需要快速连接将服务器连接到机架中的水源,这些都是故障的根源,特别是在DC中可能有成千上万的故障。 他们也使服务器更难以服务,在大多数情况下,你仍然需要粉丝。 所以你正在增加复杂性。
在人力方面,大多数设施经理拒绝改变。 他们非常熟练地使用空气冷却,而转移到液体会使这些技能过时。 此外,每一家OEM厂商都会拒绝改变,因为这意味着一个完整的产品线重做。
变化只会带来a)更好的液体冷却devise和b)立法来强制改变
水冷却中心是非常有效的节约能源,如果你有净化水。 但是如果他们密切接触,危险更大。 1)湿度/湿度水平
2)水电。
他们这样做,但您需要定制工程组件,OVH(世界上最大的数据中心之一)正在使用水冷超过10年。
看看这个链接,你可以看到他们的衣架: http : //www.youtube.com/watch?v=wrrZxmfevoE
经典公司的主要问题是你需要做一些研发来使用这种技术。
水实际上可能不是最好的stream体使用。 正如指出的那样,随着时间的推移,它将会消除每一件事情。 当然,水在冷却应用中有很好的用途,但是铝土并不是最好的。 但矿物油也可能会起作用,也不是最好的select。
特殊的导热油是非腐蚀性的 – 不像水 – 是专门devise用作传热stream体。 Paratherm已经做了很多种。
这个问题可能会导致一个闭环热交换器,我们正在谈论大量的数据。
该解决scheme已经制定,但不适用于电子环境,来自农业机械。 要命名它,液压。 快速卡扣软pipe末端是防漏的,如果由于任何原因他们断开连接,他们也closures他们自己的男性和女性的一端。 在最坏的情况下,断开连接时不会有超过1-2个小液滴。
所以我们可以消除这部分。 然而,devise适合每个需要被冷却的芯片/电路的合适的铜部件却是一项艰巨的任务。 在液体冷却的情况下,每一个需要排除多余热量的部件都需要被覆盖。 它需要一个相对高压泵,压力传感器和减压器,以确保每个机架有适量的液体循环和防止故障。 电子closures阀也是需要的。 这并不是什么新东西,因为这些部件已经制造出来,即使首先是出于不同的意图。 许多小型风扇具有冗余的优点,因此需要多个泵单元来防止单点故障的可能性。
除此之外,如果它是一个真正的闭环循环,那么移动低粘度的传热stream体而不是大量的空气自然会自行消失。
其实它有多种方式来做到这一点。 首先,空调成本和风机运行成本将会降低。 永远不要低估这些成本。 即使是一个小风扇也可能需要几瓦的功率,而风扇在一段时间后会失效。 一个液压泵可以运行 – 考虑到这个应用中涉及的低压 – 从字面上来看是24/7年,取代了大量的风扇。 接下来,服务器级芯片能够承受滥用,并且可以在非常高的温度下运行。 即使如此,让它们保持凉爽,预期的寿命也会更长,这些东西的价格永远不会被低估。 空气过滤,以防止灰尘和湿气将不再需要。
这些因素远远超出了这种冷却技术的缺点。 但是,初期投资较高。 解决scheme当然可以提供更高密度的服务器设置,但目前这个投资根本不被数据中心所考虑。 重build现有的冷却解决scheme需要时间,而时间就是金钱。 服务也将是非常容易的,笨重的散热片根本不需要,也不会是粉丝。 减less潜在故障点的数量(每个风扇都是其中之一)应该记住,冗余泵也可以在没有操作员的任何交互的情况下启动。 也有球迷自己也热。 考虑一个单位内有20个风扇,每个风扇的功率不超过5瓦。 最终的结果将是另外100瓦的热量摆脱不知何故。 泵和驱动电机也会发热,但不在机架内。 与目标系统分离并隔离。 在短路的情况下,如果电源有源元件短路,这种液体冷却实际上可以移动足够的热量,从而减less火灾蔓延的可能性。 在火附近移动新鲜空气不是最好的主意。 另外塑料部件熔化和塑料部件是可燃的。 传热stream体将会在风扇会融化的温度下高效运行,从而有可能为另一个短路源提供机会。
那么液体冷却会有危险吗? 我认为从安全的angular度来看,小粉丝堆是危险的。 从使用寿命的angular度来看,我认为液冷更受欢迎。 唯一的缺点是员工培训和初始投资。 除此之外,即使在中期,也是一个更可行的解决scheme。
它的工作原理非常好,但是它耗资巨大,需要耗费数千台机器,占用大量空间。 加上它没有必要。 游戏平台可以通过多种方式合并在一起。 任何具有良好的通风条件,即使是100%的气stream,也不会有任何问题。