你怎么用绿色保存绿色?

为了这个问题的目的,我对服务器/数据中心相关的硬件感兴趣。

通过将现有硬件换成更“绿色”或节能的硬件,您有没有可衡量的投资回报率?

例如,VMWare表示,通过使用虚拟化,可以将能耗降低高达80%。 我也听说过惠普提供的一种冷却解决scheme,它可以减lessless量的能源使用(我认为是less于25%)。 谷歌还通过将UPS整合到其电源中来降低能耗。

任何真实世界的经验都会很棒,但是如果你有关于初始成本的任何细节,节省成本并且回报什么样的改变会变得非常棒。 我不仅对虚拟化感兴趣,而且对任何事情都感兴趣。

这是一个相当大的问题。 通过绿化数据中心,人们节约能源的方式有很多不同。

我想你是在问这样的努力的投资回报率。

虚拟化当然是一个很好的例子 – 购买一些大容量物理服务器(2或4个插槽)和大量内存(32 – 128 GB),然后将物理服务器转换为虚拟服务器(P2V)并closures物理服务器。

VMware有一个ROI计算器

http://vmware.com/go/calculator

但是这要取决于 – 如果你投入3台可以处理40台服务器工作负载的VMware ESX主机,而只迁移10或20台,那么你就不会看到投资回报。

但是如果你计算了40个电源(每个服务器2个或每个机箱900瓦),然后意识到你用3个ESX主机(每个服务器2个或每个机箱1200个瓦特)replace它们,那么你最终将36,000瓦(40× 900),并以3600瓦的功率替代(从瓦特angular度看,几乎是10:1的整合)。 净节能约32000瓦。

并且实现 – 每3.5千瓦的功率约为1吨冷却 – 所以如果你拿出32000瓦,那么你可以节约大约30吨的冷却(所以你可以计算出30吨冷却的功率成本),这是一个节省你可以测量。

我的math会消失 – 我一整天都在外面玩(阳光照射)。

其他需要改进的领域 – 分布式电源pipe理 – 在夜间closures或压缩工作负载,在不需要的情况下减lessSAN中的磁盘等。

用Flywheels( http://www.pentadyne.com/ )更换UPS系统中的电池。

如有可能,尽可能使用环境冷却。

把你的数据中心放在一个每千瓦/小时更便宜的地方。

使用深湖水冷(呼喊多伦多窥视)。

正如大家对VMware所评论的,我会谈论一些不同的东西。

另一种降低能耗的方法是不要运行旧的硬件。 5年前我们购买的服务器消耗的功率是现在的两倍多,输出的能量几乎是现在低耗能服务器的两倍。

提示:

购买之前请先查看服务器的BTU额定值,然后尝试使用高效的电源和低功耗的CPU。

一旦不再需要服务器,就将服务器彻底closures(即:将服务器从数据中心全部移除)

/ Richy

微软在服务器电源pipe理方面有一个非常出色的白皮书:

Power In,Dollars Out:如何阻止数据中心的stream量

我从阅读中学到了很多东西,特别是这些闲置的电源服务器消耗图表感到惊讶。

服务器A是2005年年份:

服务器B是2008年份:

现在这些服务器是相当强大的,分别有64GB和128GB的内存。 尽pipe如此,内存是大多数服务器所需要的,并且每年都会得到更多的东西,但是这并不是一个预示未来的好兆头。然而,与最新的n最大的CPU不同,它没有闲置的节stream阀, 100%的时间下来吨吨电力!

另一个有趣的数据

根据美国环境保护局(EPA)的“向国会报告服务器和数据中心的能源效率”( PDF链接 ),生产服务器平均利用率在5%到15%之间。

大家都注意到,有很多参数需要考虑。

最基本的就是力量。 与您的数据中心检查他们提供220V和110V电源的差异 – 你可能会感到惊讶。 他们提供18V直stream选项吗? (这是数据中心最常用的方式,电信设备越来越受欢迎,因为这已经是数十年的标准)。存在电源供应,以使x86设备能够顺利运行。 IIRc,直stream电源是最有效的,其次是220V,然后是100V。 直stream是最有效的,因为它只是通过电阻的压降,而不是交stream电源(PC电源的输出为+/- 12V和+/- 5V,对吧?)的AC / DC转换器。 有时候,将每个机柜的交stream/直stream转换器放在机架上,然后将交stream电转接到转换器上,然后将直stream电转接到机器上,这样做甚至是最具成本效益的。

除了电源types之外,还有简单的旧电源使用:旋转未使用的驱动器arrays,设置未使用的机器在低功耗模式下hibernate,或者在需要时(通过远程电源控制或唤醒LAN)联机,但是closures虚拟化,将工作负载整合到更less的物理机器中,同时保持逻辑分离。

功耗的影响全部通过下面的公式:功耗越低意味着更less的废热意味着需要更less的冷却。 这是绿色的基石…但也是复杂的,可能很难衡量。

现在我最喜欢绿色的方式实际上是踢和“使用云”。 亚马逊和谷歌,Rackspace和Linode在这方面比我更好,可能比你更好。 弄清楚如何将云应用到您的问题上,从而使整个数据中心configuration问题成为其他人的问题。

VMware可以为您节省一些非常好的电量。 举例来说,我有一个8台服务器只在一天中使用的站点,这些服务器在8个1RU盒子上运行一个单线程的CPU绑定应用程序。 我将它们移动到2x 1RU四核机器并启用了DPM。

在晚上和某些时段,所有机器都被迁移到1台服务器,第二台服务器被closures。 所以从8台服务器降到1台(加上SAN)一段相当长的时间。

如果单单节省电力会花费VMware许可证是一个不同的问题。

DPM在我看来将是不错的可见成本节约。 当然,根据您的环境,某些时间需要的CPU时间要比其他时间短得多,而且在这段时间内节省电力和磨损的能力将为您节省开支。

这里有一篇关于虚拟化和绿色环保的好文章 ,以及与VMWare相比使用Solaris Zones的情况(免责声明:我为写这篇文章的人工作)。

我们有一个Nexsan SATABeast作为我们的SAN的主要存储 – 它可以自动停放磁头(节省约20%的电力),将SATA磁盘旋转到4000rpm(节能40%),并最终closures磁盘(是的,100%储蓄)。 该function称为AutoMAID。

我不得不承认,我没有在托pipeVmware OS-VMFS卷的arrays上使用此function,因为我不想让它们滞后。 可以select头部停放和旋转,并始终让磁盘运行。

我们所做的另一件事是在服务器机房中运行热逆变器(而不是A / C)。 这就像空调,除了它是双向的气stream。 它使服务器房间保持在20摄氏度左右,并将热空气推到我们的地下室(在那里加热地下室,让我们的地板在一楼有点暖和)。

这是我们实现的一个快速胜利:启用了双面打印。 大多数现代打印机可以很容易地处理这个问题,并节省能源,墨水和纸张。

VMWare不是在数据中心节约能源和资金的唯一方法。 您需要将计算资源视为单个系统,并调整/重构以提高系统性能和效率。 这就是工程和电脑之间的区别。

一些例子:

  • 冷却:很多地方都有活动地板,在“热通道”里放置了多孔砖。 这就像在冰箱里运行一个空间加热器。
  • 散热:devise数据中心的空间让人感到舒适
  • 能源:使用旧设备提供服务,因为它已经折旧并且“免费”

没有什么神奇的数字可以为您节约能源或其他资源。 这取决于各种不同的事情。 例如,如果你在纽约,电价将使每节省电力的投资回报率比南卡罗来纳州高3倍。 自动化手动stream程可能会为您节省资金,除非有些员工与3年不间断的供应合并。

你的业务规模以及你如何做会计事宜也是如此。 如果您购买和贬值服务器,购买更less的服务器+ VMWare许可证将导致税收节省和降低资本成本。 但是,如果您租用服务器,那么节省的可能会更less。 如果您是接受联邦资助的政府机构,VMWare将为您节省大量资金,因为您无需运行专门用于特定联邦计划或赠款的多台服务器。 (联合投资的硬件上,他们不喜欢它,并期望收回资金)

编辑:我刚刚意识到这些计算看起来有多愚蠢:) – 我只是把他们留在,我不认为你不能自己做,只是在起草post的时候忘记了,我在那里也放了一些小脑筋:)

没有人会/可以给你一个完整的描述如何计算你的储蓄。 你需要告诉我们你的计划什么测量你觉得可以接受的“绿色”(我讨厌这句话顺便说一句)。

通常你应该去得到你的服务器的规格,为了计算目的你使用最大的功率使用,所以能源部分是死的简单。

sum_of_kw_physical - sum_of_kw_virtual ------------------- sum_of_kw_saved x eur_per_kw ------------------- eur_saved =================== 

接下来是简单的硬件成本。 这可能只是成本,因为你通常需要得到一些相当大的铁来运行一些实例。 如果你还没有中央存储器,你可能还需要一些中央存储器。 如果你真的想从旧服务器上保存,你可以使用你的供应商的一些退货程序,或者在eBay上出售它们,或者把它们交给一些学校(这使得计算变得非常复杂)。 让我们保持简单:

  cost_of_new_iron + cost_of_new_storage - savings_from_return_program ----------------------------- real_cost ============================= 

接下来,我个人喜欢考虑HW的服务合同,因为根据你的收入计划,你可能想要得到3年的服务合同一年,如果你的组合选项使得更便宜,如:

  • 第一年 – 下一个营业日,
  • 第二年 – 同一个工作日,
  • 第三年 – 小时+更换箱子

请注意:通过虚拟化,您通常希望获得更快的支持合同,因为硬件需要更less的硬件才能让您失败。 所以这可能会比以前更昂贵的每台服务器,这取决于你保存多less个服务器将会更便宜或更低。

取决于你需要什么。 另外一个原因是没有硬件成本,因为如果出于某种原因需要更换硬件,您可以预先准备好再花一年或两年的时间来获得支持,并知道需要多less成本。

考虑软件许可证,并说一个全职pipe理员的3个月能够以与以前相同的速度完全工作。 这对于每个pipe理员来说都不是3个月,因为知识传播速度相当快。

其他事情你需要考虑到:

  • Rackspace公司
    • 这里也可能有一些节省
    • 如果您拥有自己的DC,则可以向付费客户提供更多的硬盘空间
    • 有更less的机架来支付
    • 在笼子的情况下考虑搬迁到一个更小的笼子

这就是我在“可衡量的”财务成功或失败方面所做的基本要求。

另一方面是技术上的成功。 有几个你需要的指标:

考虑到这一点:

  • 了解项目需求需要多长时间才能找出所需的硬件configuration?
  • 从订购电话到新硬件需要多长时间?
  • 运行新服务器需要多长时间(操作系统设置)?

不要把这个考虑在内:

  • build立networking(VLAN等)需要多长时间
    • 您仍然必须处理交换机,VLAN,电缆。 我把它放在一个单独的主题

现在考虑在最糟糕的情况下需要多长时间,虚拟化与虚拟化大致相同。 最糟糕的情况是,我需要为$ large_amount_of_euros获得一个shiny的新的大型服务器,只是为了让一个实例运行。 鉴于您可能需要处理与以前相同的决策,交货时间等,所花费的时间也是相同的。

一般的情况是,你很可能会立即启动并运行,因为你所要做的就是启动一个新的实例。 您仍然需要等待项目告诉您他们需要什么,以便您能够确定硬件要求。 只需configuration您的部署工具即可按需要启动的方式设置操作系统,其余部分将由部署和configuration框架完成。

我认为绿色化应该全面实施。 启用打印机审计和会计,并查看谁是大消费者。 改用电子邮件中的XPS或PDF。 通过检查业务stream程并将其改造为涉及更less的打印,更less的服务器等,我已经看到了巨大的节省。我已经能够整合或消除现有环境的30%,而不花一分钱。 (那么你可以看看许可成本等,以确定是否有意义的重新分离出虚拟环境中的服务)。 此外绿色意味着让人们远程办公。 这可能不会节省企业本身的钱,而是绿色的,通常使员工感到高兴。 也走绿色可能现在花费资金,但稍后保存。 在人们印刷很多的情况下,这是因为他们都有蹩脚的显示器,摆脱了CRT(即使它工作)取而代之的是一个更大的液晶显示器和更新的笔记本电脑/台式机,随着时间的推移,他们将支付自己电力成本。

服务器也一样。 运行一堆蹩脚的CPU服务器可能每台服务器都很便宜,但是比将这些服务整合到一个昂贵的CPU服务器上要花费更多。 例如一些较旧的1u dell(p4 procs)在其中有500w的电源。 一个全新的底线ML150配备了一个650瓦的电源,但大约是计算能力的三倍。 另一种节省电力的方式是让系统启动。 有很多磁盘旋转只是为了启动另外90%的系统。 从SAN引导保存了数据中心中的整个磁盘。

底线 – 通过所有这些分析,大约每年节约40%,资本支出约20个月

虚拟机解决scheme非常简单。

考虑一个典型的1U服务器的功耗,2个CPU插槽,大量的RAM,最多3或4个磁盘,两个冗余电源。

现在看看它的消费,而大部分闲置,然后在100%的利用率。 在100%功率消耗较高的情况下,仅空转的基本消耗是令人惊讶的高百分比。

现在考虑将4个这样的服务器整合到一个双4核心盒上的单个VMWare / XEN / HyperV实例,并为每个VM分配2个CPU。 平均而言,空闲消费将会更高,因为通常情况下会更加繁忙,但是正在运行的开销是4个独立物理盒子的1/4。

其余的一切都是在储蓄方面的肉汁!

数据中心越大,每个系统或每个机架的功率节省的可能性就越小,而且不存在可pipe理的实体。 我使用低功耗configuration和虚拟化的努力并没有得到任何绿色举措的资助,也没有被高层pipe理者授权。

虚拟化将减less物理服务器占用空间的大小,因此您将获得一些节能和维护成本。 我们看到物理服务器减less了62%。 你显然不一定会减less行政储蓄,因为你只是移动服务器的图像,而不是减less它们。

但是我认为,除非你是一个超级密集的商店,否则简单地用新的旧物理替代的节能将被高估。 例如,IBM声称他们的新型x3650 M2机箱节省电费100美元/年。 打哈欠。 我不能为花费$ 3K +来节省$ 100 /月而感到兴奋。 我想你可以说在3年内它自己付出代价,但是不要低估迁移到新硬件的软性成本。 而且,没有我们的要求,新硬件往往会变得更加省电,所以我的策略是购买新的设备,并根据业务价值进行虚拟化,而不是仅仅为了绿色。

如果您正在做任何types的服务器场,您可以将个人服务器联机和脱机,那么您可以利用Wake On Lan(WoL) 。 当在现有池的负载足够高,那么你唤醒更多的服务器。 当负载足够低时,开始closures服务器。 请注意,除了大多数其他“绿色”的想法之外,这也可以完成。 没有服务器使用的电源比closures的电源less。

我不是一个系统pipe理员,而是一个能源顾问和软件开发人员,但是有一个数据中心的故事,我喜欢说,因为它表明,如果你有决心,你可以采取多远。

我参加了一个关于绿色IT的会议,德国不来梅的一家咨询公司有一个人,他们为自己和客户经营自己的数据中心。 不是一个巨大的,但对于公司的types,这是相当大的,也许有50台机器。 此外,它不断增长。

有一天,首席执行官正在讲话,因为他们的服务器机房越来越大,他们失去了耐心,要求系统pipe理员要求更强大的冷却和通风设备。 这些设备开始在预算上和服务器本身一样多。 下一次,pipe理员想要一个冷却装置,他让这个人坐下来解释他所知道的为什么服务器机房必须在20°C。 事实certificate,没有人知道,所以他们开始了广泛的研究。

他们首先意识到的是,硬件组件上的温度是重要的,而不是室温。 所以他们编制了他们使用的所有组件的清单,并从制造商处获得了详细的耐热数据。

接下来,他们确保他们在组件上有正确的实时温度读数,至less对于足够大的样本来说是如此。

现在,他们慢慢开始让室温boost,同时关注元件的温度。 单凭这一点,就可以达到25-30°C。 当他们慢慢接近组件的临界温度时,这些温度仍然比室内高得多,所以他们试图改善空气循环,打开通风装置。 主要想法是尽可能地单独通风,因为这比冷却方式便宜。

这个过程经历了几次迭代,他们不断改进和升级通风系统,同时提高平均室温。 当他们达到45°C时,他们开始觉得他们的安全裕度太小了,他们不能进一步改善通风。 他们退后一步到了40°C,现在这是数据中心的永久运行温度。

他们从外面抽取空气进行通风,这在德国寒冷的冬天帮助很大。 在特别炎热的夏天,只能开启冷却系统。 在冬季,他们重复使用从数据中心提取的热量来补充供热系统。 这样,整个公司的电力和供热综合能源费用就下降了80%。

现在服务器房间很热,而且很吵,因为通风很强。 他们不得不在墙上加上额外的隔音材料,不要打扰隔壁的办公室。 pipe理员几乎没有进入房间,因为这不是一个很好的工作环境。 对于定期维护,他们在两天前开始冷却房间。 在紧急情况下,pipe理员进入耳朵保护,换入游泳裤(不开玩笑),在进入之前。