您是否跳过服务器之间的机架单元?

安装机架式服务器似乎在思维方面存在很多分歧。 有线索讨论电缆武器和其他机架配件,但我很好奇:

安装时,您的服务器之间是否留有空架子? 为什么或者为什么不? 你有什么经validation据来支持你的想法吗? 有没有人知道一项研究certificate是否一个更好?

    如果您的服务器使用从前到后的stream水冷却,与大多数机架式服务器一样,留下间隙实际上可能会影响散热。 除了通过服务器本身之外,您不希望冷空气有任何方式到达热通道。 如果您需要留下空白(对于电力问题,地板重量问题等),您应该使用空白面板,以便空气不能在服务器之间传递。

    我从来没有在机柜中的机架安装设备之间跳过机架单元。 如果制造商指示我跳过U之间的设备,但我从来没有见过这样的build议。

    我希望任何devise用于机架安装的设备都会通过前面板或后面板排出热量。 一些热量将通过导轨以及底盘的顶部和底部传导,但是与前后辐射相比,我认为这将是非常小的。

    在我们的数据中心,我们不会留下空白。 我们有冷空气从地板上冒出来,造成气stream问题。 如果由于某种原因我们确实存在差距,那么我们用空白的盘子覆盖它。 立即添加空白的盘子使我们的冷过道顶部更冷,我们的热过道更热。

    我不认为我已经有了这些数据或图表,但是一旦我们开始做出改变,这个差别就非常明显了。 机架顶部的服务器停止过热。 我们停止烹饪电源(我们正在以大约1 /周的速度)。 我们知道这些变化是在我们的数据中心经理从Sun的绿色数据中心博览会回来之后开始的,他在那里参加了一些关于冷却等的研讨会。 在此之前,我们一直在机架前面和后面的地板上使用间隙和部分填充的机架和多孔砖。

    即使在pipe理武器到位的情况下,消除差距也是有效的。 我们所有的服务器内部温度都在规定范围内。 在我们标准化电缆pipe理并消除差距之前,情况并非如此,并且纠正了我们的地板铺设。 我们希望做更多的工作来把热风送回中国铁路总公司,但是我们还没有得到资金。

    我不会跳过我们。 我们租金和我们花钱。

    这几天没有理由来加热。 所有凉爽的空气都在前面,而在后面。 顶部没有通风孔。

    Google不会在服务器之间离开U,而且我猜他们对热pipe理感到担忧。 总是有趣的看大牌球员做这个工作。 以下是其中一个数据中心的video: http : //www.youtube.com/watch?v = zRwPSFpLX8I&feature = player_embedded

    直接转到4:21查看他们的服务器。

    如果你有从地板来的凉爽空气,也不要留下空间,也可以在未使用的空间里使用毛坯。 如果您只是使用标准a / c单元的低科技冷却系统,则最好在热点服务器聚集在一起时留出空隙以减less热点。

    我们有3 1/2个机架的集群节点和它们在一个托pipe设施中的存储。 我们唯一跳过U的地方是我们需要将networking布线路由到核心群集交换机所在的中央机架。 我们可以承担这样的空间明智的,因为机架已经超出了权力,所以它是不可能的更多的节点塞进他们:)

    这些机器全天候以100%的CPU运行,其中一些机器在一个1U的机箱中有多达16个内核(4个四核至强芯片),我还没有看到其中大部分都没有留下空间的负面影响。

    只要你的设备有一个devise良好的风道,我不明白为什么这么重要。

    我的UPS上面有很大的空白(以后要安装第二块电池),在我的磁带库上面(如果我需要另一个)。 除此之外,我没有空隙,我用面板来填补空的空间,以保持气stream。

    每三分之一,但这是由于pipe理武器 ,需要围绕他们而不是热。 事实上,那些服务器都有6根 Cat5电缆连接到它们并没有帮助。 我们确实大量使用下料板,并在机架顶部设置空气阻止防止热通道再循环。

    另外,在我们的数据中心,我们不乏缺点的是空间。 当7-10U服务器是标准的时候,它被devise用于扩展。 现在我们已经走出了机架密集的ESX集群,这里是一个鬼城。

    没有差距,除了我们已经采取了服务器或其他的东西,而不是重新安排。 我认为我们比这里的许多人要小一些,有2个机架,只有15个服务器加上几个磁带驱动器,交换机和UPS。

    除了计划扩展san系统或类似的东西之外,没有任何差距。 我们更喜欢把新的橱柜靠近实际的控制器。

    如果你有适当的冷却,除非服务器构造不良,否则留下空隙将是无益的。

    我得到的印象(也许是错误的),在热/冷通道没有被广泛使用的电信环境中,这是一种比较stream行的做法。

    尽pipe如此,它不适合高密度和运行良好的数据中心。

    我不会在服务器之间留下空白,但是我会为LAN交换机这样的东西 – 这使我可以把一些1U电缆pipe理酒吧放在上面和下面…但是这绝对不是为了冷却。

    我通常在5RU左右的服务器(例如5x1ru或1x2ru + 1x3ru)之后留下一个空白RU,这取决于您所在数据中心的制冷设置。如果在机架前面进行了冷却(例如,机架前面)的想法是,凉爽的空气被从地板上推起来,你的服务器通过它们吸入冷空气。 在这种情况下,通常情况下,通过不留空白插槽可以获得更好的散热效果(例如,使用空白的RU盖,但是如果通过机柜中的地板进行散热,则可以通过分散服务器来实现更高效的散热在整个机架上相互重叠

    在我们拥有自己的数据中心并且空间不是问题的情况下,我曾经在逻辑区域之间跳过一个U(带隔离器来阻止气stream):Web服务器有一个部分,数据库,域控制器,电子邮件,和文件服务器有另一个,防火墙和路由器有另一个。 外围桌面的交换机和配线架位于自己的机架中。

    我记得有一次我为了冷却的原因而跳过了U. 这是一所高中的A / V有线电视循环解决scheme,有三个单位负责为有线电视系统提供服务。 由于过热,两年来第一次必须更换顶部装置后,我在架子上做了一些“手术”来制作安装孔,这样我可以在三个装置之间留出1 / 2U的空间(对于总共1个空间)。

    这确实解决了这个问题。 毋庸置疑,这是完全logging在案,为了更好的措施,我把一张表格放在他们的顶部,以解释为什么事情是他们的方式。

    这里有两个教训:

    1. 只有在例外的情况下才可以进行冷却。
    2. 使用有信誉的案例或服务器供应商。 要小心购买设备,试图将2U的热量装入1U的空间。 这将是诱人的,因为1U系统似乎要便宜得多。 并且要小心购买一个没有充分考虑空气stream通的品牌shell。

    我把他们堆放在我有的一个架子上。 从来没有任何问题,所以我从来没有任何理由把它们分开。 我想可能是人们把它们分开的最大原因是热。

    在服务器之间留有间隙会影响散热。 许多数据中心在“热通道”“冷通道”的基础上运行套件。

    如果您在服务器之间留下空隙,则可能会影响有效的气stream和冷却。

    这篇文章可能是有趣的:

    交替冷热通道为服务器场提供更可靠的冷却