IDC数据中心的六大节能降耗的策略

IDC数据中心的六大节能降耗的策略
IDC数据中心的六大节能降耗的策略

减少UPS和空调的冗余是舍本求末

IDC机房承载着企业的核心数据和关键业务。随着企业的发展扩大,需要处理和存储的数据呈几何级增长;新业务的层出不穷,需要更多的数据处理设备来支撑。数据处理和存储设备的任何一点闪失,不仅会造成企业巨大的经济损失,更会影响企业的品牌形象。而数据处理和存储设备比一般的设备需要更好的供电质量和温湿度环境。

供电方式从UPS单机、1+1并机发展到现在的N+M并机和双母线,供电可用性从单机的90%提高到双母线的99.9999%,并且正在向更高的方向发展。更高的供电可用性,仅靠技术的进步来提升是远远不够的。全世界UPS行业20年的不懈努力,UPS单机可靠性也仅从90%提高到98%左右。更高的供电可用性只有通过更多的冗余来保障,而冗余的UPS必然是降低了平均每台UPS的负载量,降低了其运行效率,从而提高了能耗。

但如果从减少UPS的冗余来降低能耗则需要更加慎重,如果是供电系统的可用性或冗余量超过了IDC机房的规划设计要求,则可以考虑适当减少;如果UPS供电系统刚刚达到或尚不能全面满足IDC机房的供电可用性要求,再减少UPS的冗余来节能就是舍本求末,得不偿失。

IDC机房设备集成度的提高,已经使单机架的功率大幅度提升。台式服务器机架功率为1.5kW,模块式服务器机架功率为5kW,现在最新的刀片式服务器机架功率高达15kW。高耗电,必然产生了高发热,因此IDC机房的空调需求量也大幅度增加。

在台式服务器时代,因为单位功率密度低,即使空调出现问题,机房温度也不会迅速升高到极限温度,维护人员有充足的时间来修复空调,因此几乎没有空调冗余的要求。但进入模块式服务器时代,对空调的可用性要求就不同了,空调短时间的停机或制冷量不足,机房温度会迅速升高到极限温度。曾经有一个机房,3台空调坏了1台,半小时后机房温度到了40℃,服务器全部报警甚至停机。现在是刀片式服务器,以往的空调散热方式已经不能有效解决机架内的热问题。因此,要想减少空调的冗余或配置来达到节能的目标同样是冒极大的风险。

节能降耗的六大通用原则

在确保IDC机房安全的前提下,仍然存在节能的可能和空间。因为影响IDC能耗的因素不只是UPS和空调的多少,还有更多的因素需要考虑,因此在规划建设IDC机房时,需要全面考虑。以下一些原则可以对节能有所贡献:

(1)选用低能耗的设备

IDC机房的能耗大户是服务器、数据存储器等数据处理设备,数据设备的用电量大,就需要更多的UPS来供电,UPS在电能转换中需耗费一定的能量,电能在传递分配中也有损失。数据设备的用电,90%以上最终转变为热量,就需要更多的空调来散热。据统计,数据设备的功耗每增加100W,在电能转换和分配传递上会损耗10~20W,空调制冷增加功耗120W,因此数据设备的能耗被放大了数倍。在满足业务需求或同样处理存储能力的设备中,选用低功率无疑是节能减排的关键。

(2)选用合适的供电方案和供电设备

IDC机房固然重要,但不是说IDC机房内的所有设备都同等重要,都需要99.9999%以上的供电可用性。因此,对IDC机房内的用电设备进行有效合理的区分,制订不同等级的供电可用性和供电方案,避免无用的供电容量和供电设备冗余,既减少了供电系统的投资,也降低了运行能耗。

(3)空调机组合适的制冷方式和运行模式

虽然空调机组的运行需要消耗能源,但不同的制冷方式消耗的能源是不一样的。制冷剂的不同、运行模式的不同都可能产生可观的节能效果。比如,北方地区冬季的冷空气可以用来机房制冷(非直接引进室外空气),西北地区的干燥空气可以用来制冷,大楼的冷冻水比机组本身的制冷剂更节能等。

(4)合理布局机房和组织气流

IDC机房内的发热设备和散热设备并不是一一对应的,热是通过机房内的气流带走的。不合适的机房布局和设备安装方式,妨碍了气流的运动,降低了散热效果,消耗了更多的能源;超远距离,超强的送风需要更大功率的风机,消耗了更多能源。因此,不是将足够制冷量的空调和发热设备堆积在一个机房就解决了热平衡问题。

(5)特殊设备特殊对待

IDC机房的主设备不一定是同样的发热,不同时代的服务器发热差别很大,用同样的散热方式就会冷热不均,不仅消耗了更多的能源而且带来了其他问题。对于高密度发热设备,应该采用特殊的散热机柜和散热方式,这样不至于为了照顾个别的高发热设备而机房的温度太低。

(6)防止跑冒滴漏

IDC机房密封不严,隔热效果不好,也是能源消耗的重点。IDC机房的门窗应该密闭并用良好的隔热材料,墙壁、地板、天花板应该进行隔热处理,特别是南方地区,夏季高温期长,外墙传递的热量不可小看。这就是有些IDC机房冬季没有问题,夏季温度偏高的主要原因。在不同季节,主设备的发热量通常不会差别太大。

以上几个原则,不仅适用于新机房的建设指导,同样也适用于老机房的节能改造的指导。区别是新机房建设是在一张白纸上画画,可以全面应用6个原则;老机房改造则要基于现有的各项事实,现实的情况不允许依葫芦画瓢,应该先调查清楚现有IDC机房的具体情况,再根据6个节能原则制订针对性的改造方案。

春节假期国人吃喝玩乐消费6107亿你贡献了多少春节假期国人吃喝玩乐消费6107亿你贡献了多少春节假期国人吃喝玩乐消费6107亿你贡献了多少春节假期国人吃喝玩乐消费6107亿你贡献了多少春节假期国人吃喝玩乐消费6107亿你贡献了多少春节假期国人吃喝玩乐消费6107亿你贡献了多少春节假期国人吃喝玩乐消费6107亿你贡献了多少春节假期国人吃喝玩乐消费6107亿你贡献了多少春节假期国人吃喝玩乐消费6107亿你贡献了多少

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

高效数据中心的六大绿色节能措施

高效数据中心的六大绿色节能措施 和一两年前相比,很多数据中心的运营者们如今也并未热衷于“绿色”这个词。这当然不是说他们已经抛弃了旨在提升能源效率,更好地利用IT资源的各种项目,因为这些项目既可以削减运营成本,又能减少对环境的影响。 市场咨询公司451集团在考察了被大批组织和机构所接受的可降低数据中心运营成本的六种绿色实践之后,发布了一份内容全面的报告:《高效节能的数据中心实践》。其中的一些实践做法,如进行数据中心的全面规划,寻找可替代传统制冷系统的方案等可能早已被大家所熟知;其他做法,如采用直流供电和预制件数据中心等,则很少有人谈及,或者被认为不可持续而不予理会。 在计划升级其设施时,数据中心的运营者们应该好好考虑或者重新考虑一下这些趋势。当然,并非所有这些实践都适合每一个组织,但如果你不去看看,那你就有可能永远都不知道有这些实践做法存在。 实践1:采取综合的可提升整体效率的方法 数据中心运营者需要通过结合了集成技术和各种手段全面处理效率问题的方法,而不能孤立地去对待每个项目。这其实并不是什么开创性的概念:绿色网格组织从2008年成立以来就一直在提“通盘考虑”的口号。而这样做的最大好处之一就是可以促进各部门间,尤其是设施部门和IT 部门间的协同,确保所有的参与者在对数据中心进行升级改造时能够意见一致。举例来说,IT 部门订购了一个用于关键任务项目的高端服务器机柜,那么他只需要在机柜到达数据中心时打听一下是否有足够的电力或冷却能力支持这个机柜便可。 组织内的协作并未到此结束。为了努力减少能源浪费,很多企业部门之间如今已越来越开放,曾经是各部门最隐秘的东西也可以公开。这方面最有名的例子就是Facebook,利用其开放计算项目,该公司有关高效服务器、机柜和冷却设备的蓝图也都在开源。 实践2:更智能的冷却系统 数据中心运营者们正逐渐意识到,数据中心设施并非存放肉类的大冰柜,只需要适当制冷即可。虽说IT管理人员不希望设备因过热而失灵。但如果你花在IT上的每个美元都得分出50美分用于制冷的话——这正是很多传统数据中心的平均PUE比值——那几乎可以肯定你是在烧钱。 有好多种办法可以降低冷却成本,其中一些技术始终不被企业所接受,生怕会毁掉他们的宝贵硬件。这其中就包括液体冷却技术,该技术被认为会产生很多维护方面的问题,而且使用范围有限。但是来自绿色革命冷却公司的一种液体冷却方法采用了低成本、无污染的绝缘液体,据称其吸热能力是空气的1200倍。 至于空气冷却这种免费冷却方法则要比液体冷却更受欢迎。这个概念也很简单:只要把数据

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

数据中心节能降耗实施途径探讨

数据中心节能降耗实施途径探讨 保证数据中心正常运行需要降低能源消耗,这是困扰服务商的最大问题之一。要确保IDC数据中心能够在安全条件下节能稳定运行,必须要采取一些必要措施。本文分析了数据中心的能耗比重,论述了数据中心节能降耗实施途径,以供参考。 标签:数据中心节能降耗实施途径 一、数据中心的能耗比重 一个典型的数据中心,其能耗主要由四大块组成,第一大块是占数据中心总能耗约50%的IT设备系统,包括服务器设备、存储设备和网络通信设备等;第二大块是占数据中心总能耗约37%的空调系统;第三大块是占数据中心总能耗约10%的UPS供配电系统;第四大块是数据中心总功耗剩余的3%属于辅助照明系统。 二、数据中心节能降耗的主要实施途径 1. IT设备节能 在设备选型上,首先应结合数据中心的建设标准,根据实际需求购置、扩容设备,宜选择扩展性强的设备,对工作环境温、湿度要求相对宽松的设备,避免超前使用过高档次或高配置的设备。其次,在同等性能条件下,设备选型时应优先选择散热能力强、体积小、重轻、噪音低和易于标准机架安装等的设备。在使用IT设备的过程中,要在满足数据中心业务安全性的前提下,尽量提高IT设备的利用率,节省运行设备数量。在部署和维护设备的过程中,为达到良好的IT 设备节能降耗效果,建议设备部署与维护中遵循节能降耗的原则。 2.供配电系统节能 2.1供电设备选型 对供电设备进行选型时,建议选用新型节能设备或技术减少设备自身能耗,提供系统整体节能效果。 2.2合理进行设备配置 通常来说,数据中心的负载是分步增长的。在节电器项目初期,机房设备的负载率一般都较低,导致系统各环节的效率常常低于设计效率。 2.3合理设计布线路由

数据中心能效指标及IT设备的能耗计算

数据中心能效指标及IT设备的能耗计算 作者:许剑更新时间:2010/4/813:29:20 摘要:在数据中心的建设和改造过程中,科学、长远的规划是构建绿色数据中心的关键,数据中心的能效是个能考量的指标,是否合格一目了然,IT设备的能耗盘点便是这指标考量中的关键,想要真正的做到绿色数据中心,我们就要先来看看你的数据中心是不是真的“达标”了。 数据中心的能耗问题已经引起了广泛的关注,众多的厂商推出了针对性的产品和解决方案,很多数据中心的管理人员也在寻求正确的方法来降低数据中心的能耗。 几年前GreenGrid(绿色网格)组织提出用PUE(能源利用效率)和DCE(数据中心能效)或DCIE(数据中心基础设施能效)的标准来衡量数据中心的能耗效率。但是,业内外对PUE和DCE作为能耗标准的有效性都普遍表示担心,这也使业内外对于更好衡量标准的需求变得更加迫切。 PUE及DCiE的概念: 能量使用效率PUE:PowerUsageEffectiveness 数据中心基础设施效率DCiE:DataCenterInfrastructureEfficiency PUE和DCiE二者成倒数关系 数据中心分成IT设备和Infrastructure(基础设施)两个部分,两个部分能效的乘积才是整个数据中心的能效,详见上图。 IT设备部分的能效评价指标还在定义之中,而Infrastructure(基础设施)部分的能效定义即PUEandDCiE。

数据中心IT设备与基础设施Infrastructure能效关系 数据中心基础设施Infrastructure能效指标 数据中心典型的PUE和DCiE曲线: PUE指标曲线

数据中心节能改造的7种解决方案图文【最新版】

数据中心节能改造的7种解决方案图文 点评网()报道:随着计算机网络业务量的迅速增长、服务器数量的增加,机房的面积及规模也在不断扩大,数据中心的能耗成本也迅速增加,并有赶超硬件成本的趋势。据权威机构调查显示,我国每年用于服务器的电源和冷却的总开支超过了20亿美元。对于已经建成投产的数据中心,如何实现有效的节能改造,需要从多方面考虑。本篇介绍了数据中心基础设施节能改造的几种主要解决方法。 一、设计一套机房整体监控系统 图IT设备负载变化曲线 从机房负荷和空调冷量配置来看,机房一般设计为N+X的安全运行模式,但从整个机房IT设备布局来看,由于机房面积较大,考虑其循环风量及减少机房局部温度死角等问题,及负载设备功耗的动态变化,精密空调群无法做到人为控制按照需求运行,机房发热量变化

无规律可以遵循,所有室内风机全速运行,压缩机由每台空调独自按照自己的需求进行控制,此种运行模式从运行费用角度来说是不经济节能的。如果强制空调群中的冗余设备进行关机运行,由于机房气流组织及温度变化规律很难掌握,人为控制空调的开机与关机也很难做到机房安全,因此可能存在局部温度不可控的现象。因此,机房精密空调群控対机房节能起到至关重要的意义。 机房专用空调群控节能的思路是:在保障机房设备正常运行的前提下,通过减少冗余空调设备的运行时间,来降低整个机房的能耗,实现空调系统的备份/轮循功能、层叠功能、避免竞争运行功能、延时自启动功能。 结合曙光自适应集群功率与能耗监控系统,进行精密空调集群集中管理,管理软件根据CPU占有率计算每一排的服务器功耗,根据负载分布情况及精密空调分布情况精确控制相应位置空调的工作状态,其中主要包括压缩机的启停和空调室内机的风扇启停。精密空调通过RS485网络与协议转换器通信,协议转换器通过以太网与管理节点协同工作,这样使不同厂家的精密空调(具有监控功能)能够通过曙光标准协议接口与管理节点进行数据交互每个服务器机柜内安装两个无线温湿度探头,每排机柜构成一个网络,通过物联网的组网方式形成一个温湿度监控网络,并通过以太网将数据上传至管理节点,形成双层监控网络,在监测到服务器到温的时候,开启机房空调,在节能的

数据中心节能发展方向

企业数据中心节能发展的方向 现如今,“浪费能源对我们的环境是有害的”已然成为了众所周知的共识。但很少有人真正意识到,其对于企业的业务也同样是不利的。 每天,持续进行着IT运营的企业组织都在节省数千乃至数百万美元的IT开销。而不能再将企业的IT预算资金浪费在不必要的高额能源费用上。而且,通 过这样,还帮助他们进一步赢得了当前对于绿色环保意识高涨的客户们的业务。 事实上,哪怕完全无视企业社会责任方面的影响,企业实施可持续发展的案例所带来的纯经济影响也是毋庸置疑的。此外,现在全球IT业界的相关排放量 占总污染量的2%(与全球航空业界的污染相当),而企业数据中心正是帮助当前的企业开始实现上述这些经济效益的理想场所。 在本文接下来的部分中将与广大读者朋友们共同探讨两大重要的问题:什么原因使得当前的数据中心变得“绿色环保”;以及如何将这些“绿色环保”的特 征转化为企业真实的资金节约?并且还将研究企业数据中心的效率、可靠性和正 常运行时间之间的平衡——以及企业应当如何将可持续的选择方案结合起来,以便能够提供最佳的客户体验。 有鉴于此,那么就来仔细看看有助于数据中心减少能源浪费的各个相关要素,以及这些相关要素如何帮助数据中心的运营转化为能源的节约吧。 太阳能 现如今,太阳能发电正处于扩大采用的良性循环中,其导致了企业数据中心基础设施成本的下降。在过去的四年里,太阳能电池板的平均价格下降了60%。而且,安装光伏太阳能电池阵列的成本已经缩减到每瓦3美元,这大约相当于煤炭发电的成本。 当前,在美国,有越来越多的企业选择在他们企业办公建筑的屋顶安装太阳能板,数据中心也不例外。太阳能的可变成本可以忽略不计——因为其源材料(太阳光)是免费的。更重要的是,在白天能源价值最高的时候,太阳能的供应量是 最大的。 但是,太阳能供应的变化也凸显了其自身的一个重大问题——其不容易储存。如果太阳能不能立即使用的话,就会丢失。 与此同时,太阳能的光照效率高度依赖于数据中心所在地区的气候。太阳能的密度(或者从有限的空间中具体所能够获得的能源量),可以因数据中心所处当地为温带城市或荒芜的沙漠的不同而产生高达5瓦/平方米(W / m2)到20瓦/平方米的波动差异。 上述这些数据同时还受到在太阳能电池板的生产中所使用的具体材料的影响。随着科学技术的不断进步,业界的科学家们正在开发更好的材料,包括新生的称为钙钛矿的太阳能吸收晶体,以获取更多的太阳照射。 对于所在地缺乏合适的光照气候条件或相应的基础设施,无法很好的充分利用太阳能的数据中心而言,相同的环境效益可以通过美国太阳能可再生能源认证证书(SREC)的形式获得——这在美国是可交易的非有形能源商品,可再生能源认

数据中心能耗计算指导方法

数据中心的能耗审计 若想实现数据中心的节能降耗,首先需要确定影响数据中心能耗的基本因素。通过系统化的能耗审计能够提供数据中心能耗的实时概况和模型,明确了解数据中心的总体能耗以及能耗的具体分布状况,同时可以建立基线供未来改造规划之用。 能耗的审计可以通过手动计量,也可以采用先进的自动化设备获取相关数据。在能耗审计过程中,将主要依据以下三类数据开展审计工作: (1) 第一类是电量参数,包括系统和独立设备的工作电流、电压和电流波形等。 (2) 第二类是空气参数,包括温度、湿度、风速和温升等。 (3) 第三类参数,包括水和气的用量等。 数据采集密度越高,精度就越高,审计结果的准确性也越高。为了能够快速准确地进行能耗审计,大中型以上规模的数据中心都装有自动化的数据采集系统和分析系统,可以快速地进行能耗分布情况统计和分析。 通过能耗审计,可以明确知道能源的去向。在能耗较高的方面,能够有针对性地开展节能工作。我们知道,电力消耗是数据中心最主要的消耗,空调制冷等方面的能耗同样是以电力消耗的形式表现出来。 现有的一些研究数据可以让我们比较清楚地看到目前多数数据中心的电能分布情况。虽然这种分布并非理想,却代表了当今的普遍现状。数据中心输入电力分布如图4-1所示。 图4-1数据中心输入电力分布 从图4-1中可以看出,能耗高是目前数据中心普遍存在的现象。当IT设备系统,包括服务器、存储和网络通信等设备产生的能耗约占数据中心机房总能耗的30%时,电能使用效率(PUE)在3左右。其他各系统的具体能耗分布如下: (1) 制冷系统产生的能耗约占数据中心机房总能耗的33%左右。 (2) 空调送风和回风系统产生的能耗约占数据中心机房总能耗的9%左右。 (3) 加湿系统产生的能耗约占数据中心机房总能耗的3%左右。 (4) UPS供电系统的能耗约占数据中心机房总能耗的18%左右。 (5) PDU系统产生的能耗约占数据中心机房总能耗的5%左右。 (6) 照明系统的能耗约占数据中心机房总能耗的1%左右。 (7) 转换开关、线缆及其他系统的能耗约占数据中心机房总能耗的1%左右。 从数据中心电能的流向来看:一是IT设备约占30%;二是空气处理设备约占45%,建筑

数据中心八大节能八个步骤

数据中心八大节能八个步骤 现有的节能技术大都没有顾及电力需求增长的主要因素,只考虑如何降低整体能耗成本。企业为数据中心节省能源同时提高效率,其实还有更有效的办法。只要实现高效存储数据,减少机器及磁盘数量,就能解决急速增长的能源消耗问题。这个策略不仅可以减少系统的复杂性,降低成本,还可以改善网络效率和性能表现,从而对新的业务需求能做出更好的反应。 1. 整合服务器和存储系统 服务器本身已消耗了数据中心的一半能源,而存储系统是另一大能源消耗者。事实上,窗口数据的大幅增长,导致了窗口档案服务器和直接附加存储系统的数目急增。因此,只需设立一个存储网络,整合服务器和存储系统,减少设备数量,数据中心的可用能源就能迅速增加,从而提高能源效益。 2. 选用高容量磁盘驱动器 典型的SATA磁盘驱动器,与相同容量的光纤通道(Fibre Channel) 磁盘驱动器相比,可以节省大约一半的能源。同时,它们可以提供最高的磁盘驱动器可用存储密度,进一步降低能源消耗。一些具有磁盘修复及数据保护技术的SATA磁盘正日趋流行,成为很多企业应用的理想选择。 3. 减少磁盘驱动器数量,防止磁盘故障 SATA磁盘驱动器的数据存储量比光纤通道主磁盘驱动器多,但我们不能因此而忽略了数据可靠性。当前流行的双区间(Dual-parity) RAID-DP,能够提供更高的存储利用率和错误容忍度,可同时修复两个故障磁盘驱动器的数据。 4. 将数据转移到更高效的存储系统 为确保最有效地使用存储资源,可以把数据转移到次存储系统以减低主存储的负荷。一个完善的信息服务器能自动把存取率较低的数据,自动由主存储器转移到存储效益较高的次存储系统去。 5. 提高利用率 据业内估计,存储利用率只有25%-40%,即大约有60%-75% 的存储容量还没有被使用,却在不停地消耗能源。市场上有些方案能有效解决这个问题,通过共享存储,让所有磁盘都可以存取数据,平均存储利用率可高达60%。 6. 单方案多应用 只要掌握了数据备份的窍门,就能大幅节省存储空间。第一,只存储变更的数据。第二,用数据备份实现多个不同应用,以降低对特定存储系统的依赖,同时将后备系统用于验证及异步灾难恢复,减少特定存储系统的数量,节省更多能源。第三,重复数据删除技术(Deduplication) 可以避免对存储于主磁盘阵列的多余数据进行重复备份,缓解增加次存储容量的需求。

数据中心节能方案分析

数据中心节能方案分析(总7 页) -CAL-FENGHAI.-(YICAI)-Company One1 -CAL-本页仅作为文档封面,使用请直接删除

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。

世界500强数据中心机房节能方案

微软(上海) 数据中心机房节能解决方案 ?全球唯一基于I D C绿色节能的物联网应用平台 ?2+8(2项成果,8大核心技术突破) ?已获8项技术专利、10项软件著作权 ?制冷能源节约高达60% ?效率提高200% ?N A T o p I n t e r n a t i o n a l.D e c.2013

优化效果现状分析优化方案合作模式案例学习

100200300400500600700869.4万 289.95节能效果: PUE 值从2.36下降至1.5, 每年将减少制冷电费支出115.89万元, 五年总节约579.45万的电费, 节约2,343吨标煤, 减排5,782吨CO2, 约合119亩森林。 优化前 五年原所需制冷电费 优化后 五年现所需制冷电费 优化效果——节能效果

5010015020025030012 3 优化前 IT 负荷 优化后 IT 可增容负荷 2倍容量增加 优化效果——经济效益 经济效益: 优化后,不增加基础设施,IDC 可以增加二倍的IT 负荷,即可增加二倍的经济收入;同时能源节约的绝对值也相应提高。 155KW 310KW 450KW 优化后 IT 可增容负荷

优化效果现状分析 优化方案合作模式案例学习

现状分析: 建筑面积:230.4 平方米 机柜:115台,前后网孔门, 地板:活动地板,下送风, 地板高度400mm, 空间阻碍物少 精密空调: ASD1500CW 146KW(显冷) 5台(4+1) UPS: Hipulse 400KVA 1台 + 300KVA 1台 风道:机柜采用自然冷热通道分隔模式 机房温度: 22o C , 机房湿度:50% 机房现状

数据中心机房能耗核算方法

数据中心机房能耗核算方式 计算机房用电不用想都知道耗电率高,就按目前来说,我国大型数椐中心机房用电量比起先进国家差距比较大的,机房用电分配是:IT占44%,制冷占38%以上(有甚至的高达50%),其余电源、照明占18%左右。可以看出制冷耗电是影响PUE值的关键,空调冷是机房的耗电元凶。 1、机房工作站、存储等占地面积计算 机房面积计算公式:A(主机房面积)=F单台占用面积3.5 ~5.5m2 /台(取中间值 4.5)*N机柜总台数主机房面积=4.5(m2/台)*30台 =135m2 2、UPS选型指标 (1)机房内设备的用电量机房计划安装30台机柜,每个机柜按照3kw功耗计算,机房内机柜设备的耗电将在3kw*30台=90kw。 (2)机房内其它设备(消防、监控、应急照明) 监控、应急照明和消防设备耗电大约在8000w左右。不间断电源系统的基本容量可按下式计算: E≥1.2P 式中E——不间断电源系统的基本容量(不包含冗余不间断电源设备) P——电子信息设备的计算负荷[(kW/kV.A)]。 P=1)+2)=90kw+8kw=98KW

E≥1.2P E≥1.2*98 KW E≥110.4KVA 考虑UPS运行在60%和70%之间是最佳状态,建议在上面的计算结果除以0.7进行再一次放大。 110.4KVA/0.6≈184KVA。根据机型手册选择靠近功率的机型,因此选择200KVA的UPS。为了电源端的安全可靠性,建议采用UPS 机器配置1+1冗余方案,因此需要两台200KVA的UPS。 所以在选型上:选择两台200KVA UPS做1+1热备并机。 3、空调选型指标 经验采用“功率及面积法”计算机房冷负荷。 Qt=Q1+Q2 其中,Qt总制冷量(KW) Q1室内设备负荷=UPS功耗×0.8 Q2环境冷负荷=0.12~0.18kW/m2 ×机房面积 Q1室内设备负荷=200KVA*0.8=160KW Q2环境冷负荷=0.15kW/m2 *251 m2=37.5KW Qt=Q1+Q2=160KW+37.5KW=197.5KW 所以:机房内所需制冷量197.5KW,建议在制冷量上做40%冗余。采用320kw的制冷空调(制冷功率80KW空调4台) 4、机房总用电量 实际总用电量=UPS用电功率+空调用电功率+照明+其他

IDC数据中心的六大节能降耗的策略

减少UPS和空调的冗余是舍本求末 IDC机房承载着企业的核心数据和关键业务。随着企业的发展扩大,需要处理和存储的数据呈几何级增长;新业务的层出不穷,需要更多的数据处理设备来支撑。数据处理和存储设备的任何一点闪失,不仅会造成企业巨大的经济损失,更会影响企业的品牌形象。而数据处理和存储设备比一般的设备需要更好的供电质量和温湿度环境。 供电方式从UPS单机、1+1并机发展到现在的N+M并机和双母线,供电可用性从单机的90%提高到双母线的99.9999%,并且正在向更高的方向发展。更高的供电可用性,仅靠技术的进步来提升是远远不够的。全世界UPS行业20年的不懈努力,UPS单机可靠性也仅从90%提高到98%左右。更高的供电可用性只有通过更多的冗余来保障,而冗余的UPS必然是降低了平均每台UPS的负载量,降低了其运行效率,从而提高了能耗。 但如果从减少UPS的冗余来降低能耗则需要更加慎重,如果是供电系统的可用性或冗余量超过了IDC机房的规划设计要求,则可以考虑适当减少;如果UPS供电系统刚刚达到或尚不能全面满足IDC机房的供电可用性要求,再减少UPS的冗余来节能就是舍本求末,得不偿失。 IDC机房设备集成度的提高,已经使单机架的功率大幅度提升。台式服务器机架功率为1.5kW,模块式服务器机架功率为5kW,现在最新的刀片式服务器机架功率高达15kW。高耗电,必然产生了高发热,因此IDC机房的空调需求量也大幅度增加。 在台式服务器时代,因为单位功率密度低,即使空调出现问题,机房温度也不会迅速升高到极限温度,维护人员有充足的时间来修复空调,因此几乎没有空调冗余的要求。但进入模块式服务器时代,对空调的可用性要求就不同了,空调短时间的停机或制冷量不足,机房温度会迅速升高到极限温度。曾经有一个机房,3台空调坏了1台,半小时后机房温度到了40℃,服务器全部报警甚至停机。现在是刀片式服务器,以往的空调散热方式已经不能有效解决机架内的热问题。因此,要想减少空调的冗余或配置来达到节能的目标同样是冒极大的风险。 节能降耗的六大通用原则

老生常谈数据中心节能

老生常谈数据中心节能 数据中心该如何节能?这是一个老生常谈的问题,几乎每个人都可以说出一两点自己的观点与看法。的确,数据中心节能涉及到方方面面,从某个方面出发去看待这个问题都可以讲出很多合理的,也有一些是不合实际的想法。打开互联网搜索可以找到各种各样的关于数据中心节能的见解,这让我们感到很困惑,既然有如此多的节能技术,如果多的办法,怎么数据中心能耗问题还是一天比一天严重,仔细探究会发现很多都是主观臆测的,缺乏实际使用的意义,所以最终也只是一篇文章而已。回想以前大家上学时候,比如上研究生、博士研究生时代,都要求在一些杂志上发表一定数量的文章,可以说百分之九十以上是没有什么研究价值的,更多是自己在别人的文章上再修改修改,然后做些实验就发表。还包括很多的什么教授、博导发表的文章,一样缺乏实践支持,非常空洞地大谈理论。关于数据中心节能也是已经有太多人谈到了,但几乎都是从某一个方面提及,本文将从数据中心整体,概括性地讲述一下节能都应从哪些方面入手。 数据中心里各个环节都需要用电,那么自然要从这些耗电的地方想办法。我们将数据中心节能分为两大方面:软件和硬件。通过软件节能,指的是通过对数据中心规划设计,避免一些用电的浪费现象,都是部署一些新的软件技术,维护技术来提升用电水平。硬件的节能指的是通过改善数据中心环境,改善空调和供电系统,更换更节能的设备等方面来优化。先从软件方面说起。软件方面最大的节能技术就是最近火热的虚拟化技术,通过虚拟化技术可以将设备的资源充分利用起来。比如:原来服务器运行CPU只有20%,通过虚拟化提升到40%,这样原来两台服务器干的活,通过虚拟化可以用一台来干,提升了工作效率,这样对于整个数据中心就提升了一半的工作效率,这意味着在不增加业务的情况下,可以将一半的服务器关掉,自然可以节省大量的电能。对于存储、网络、安全等设备一样,通过虚拟化软件都可以充分将各种资源利用起来,避免浪费。还有云计算,软件定义数据中心等这些新兴技术,其实现的目的都是提升数据中心的工作效率,这些技术也在一定程度上可以降低能耗。通过软件还可以对整个数据中心的温湿度进行自动调节,对风量和温度进行自动控制,从而可以最大化地节能电能,通过软件还可以加强对人的管理,通过制定详细的规章制度,克服个人浪费的行为。比如在使用临时电脑后,要及时进行关闭,机房的灯在人走后可以关闭,通过日常的工作及时发现一些浪费的现象可以及时制止,提升每个人的工作效率,这些都是节能的行为。软件的终极实现就是通过软件提前设置一些关键数据参数,当数据中心运行到这些临界参数时,软件给出及时的调整,始终让数据中心运行在最佳的状态上,确保这样运行是最节能的。 软件只能基于现有的硬件条件来进行优化,如果硬件不给力,做太多的软件优化也无济于事。所以节能技术,从硬件上做文章才是根本。现在的数据中心设备一般设计使用寿命为5年,

8种有效降低数据中心能耗的方法

随着新一代数据中心建设浪潮的兴起,随着企业机房里服务器的密度越来越高、数量越来越大,电力消耗和散热能力正在成为企业IT管理员重点关注的问题,数据中心所消耗的电力以及要冷却这些被转化为热量的电力消耗都达到了越来越高的水平。电力的巨大消耗带来各种严峻问题,巨额的电力成本会让企业的整体成本上升,并且,相对而言在一段时期内任何一个数据中心的电力供给都是有限的,所以即便是通过增加硬件来力求平衡,最终页仍然要面对电力供给与占地面积的问题,在日益倡导绿色环保和严格审核的低碳时代,降低数据中心的能耗极为必要。 在保证数据中心基础设施的最低电力供给的同时又能显著减少电力消耗与电力成本的方法有以下这些: 1、服务器虚拟化 服务器的电力消耗占整个数据中心电力消耗的一半左右,虚拟化技术让一台物理服务器可以运行多个多个虚拟主机,这让单独服务器的计算资源可以被多个环境共享,通过调整服务器的负载,可以让计算资源得到充分利用。降低二氧化碳排放量,降低管理和运营成本。 服务器虚拟化技术降低成本是非常明显的,平均来说,以一个月为周期,和应用多台服务器的非虚拟化站点相比,应用虚拟化技术的服务器站点在数据流量、能耗、受攻击威胁和总体拥有成本只有前者的10%。 虚拟化技术让企业更加绿色,运行多台服务器会产生大量的热量,并需要额外的能耗进行冷却。通过虚拟化技术,30台服务器可以整合到3台,这可以降低15至30吨的二氧化碳排放量——相当于在公路上减少7辆汽车。 2、采用现代化冷却系统 HVAC系统通常是数据中心第二大耗电系统,据Data Center Users Group估计,消耗的电能占数据中心能源消耗的37%。空气调节系统只有在处理小范围时才能到达较高效率,面对大规模的数据中心,多数冷却系统的冷却任务都无法最优化处理,冷却效率非常低。通常,用现代化、模块化和更高效的组件替代一些传统空调设备进行冷却处理可以节约大量电能。 在气候条件便利的情况下,采用类似用外部冷空气替代电力系统来进行冷却等更节能的方式,将可以更加节约电能。 3、重组数据中心 数据中心的数量和规模的扩大在过去的几年中非常明显,而服务器则被随处安装,非常缺乏计划性。这导致了数据中心的发热与散热不均,超载的IT环境也很难保证冷却系统的最优化运行。 对数据中心服务器的物理位置进行重组,例如配置冷、热通道,都可以显著减少冷却系

IDC数据中心节能技术

数据中心主流节能技术指南

数据中心主流节能技术指南 当前,在数据中心能耗危机压力之下,广大企业IT经理和数据中心管理人员使出了浑身的解数来提高数据中心能耗效率。其中,虚拟化和服务器整合、服务器节能以及机房冷/热通道控制技术是最为常见的三大节能策略。事实证明,在企业预算有限、云计算服务模式尚未成熟的前提下,常规的数据中心节能技术显然更具实际意义。那么,虚拟化和服务器整合究竟如何实施?有没有具体的案例可分享?服务器节能主要从哪几个方面下手?冷/热通道控制技术有何消防规范和衡量指标?本技术指南将为大家解决这一问题。 虚拟化和服务器整合 在数据中心普及化的高潮中,服务器整合与虚拟化是两个主要趋势。虚拟化是另一种整合方式。有了虚拟化技术,你就无需在有限的资源条件下布署大量的服务器。你可以将它们虚拟化到数量更少但功能更为强大的机器上,从而节省硬件成本和电力消耗。 探秘美国众议院数据中心:虚拟化最新境界 通过数据中心整合和虚拟化实现高密度服务器配置 优化服务器能效 数据中心能源效率是今天很火的一个讨论主题,IT运营部门正在想办法量化和提高他们数据中心的能源效率,这也意味着需要提高服务器的能源效率。我们已经听烦了服务器制造商们对他们的产品能源效率的承诺,我们需要了解的是服务器各个部件的具体能效指标。 优化数据中心服务器能源效率:电源和风扇

优化数据中心服务器能源效率:CPU、内存及硬盘 优化数据中心服务器能源效率:I/O卡和芯片组 冷/热通道控制技术 通过对数据中心冷热通道进行更好地控制,可以让数据中心的制冷系统更高效地运行。然而,你的数据中心是否需要冷/热通道控制系统?该系统在消防规范方面有何具体要求?又如何去衡量系统的节能效果? 你的数据中心是否需要冷/热通道控制系统? 数据中心冷热通道控制消防规范及衡量指标 如何通过空气通道控制来降低数据中心PUE

数据中心电源及空调节能方案研究

数据中心电源及空调节能方案研究 摘要:本文主要从电源和空调两个方面对数据中心能耗现状及问题进行梳理,结合某运营商数据中心建设及改造案例,对数据中心机房提出系统的节能方案建议。 关键词:数据中心、电力输配系统、不间断电源、制冷机房、空调末端系统、节能 一、概述 随着社会电子信息化程度的提高,企业的业务和管理朝着电子化和网络化的方向快速发展,在这种背景下,通信运营商的IDC业务得到了迅速的发展。随着电子信息及制造技术的飞速提升,数据中心机房的设备密集度大大提高,耗电巨大,发热量更加集中,机房局部过热现象增多,机房内单位面积空调冷负荷急剧增加,由此引来的主设备运行故障和能耗逐年上升,甚至成为了制约通信业务发展的一大瓶颈。同时,具有重要战略地位及发展潜力数据中心作为通信行业高能耗的代表也成为了大家关注的焦点,国内外各大运营商及相关研究机构都陆续开展了一系列数据中心节能试点改造,取得了良好效果。 本文主要从电源(包括电力输配系统、交直流不间断电源等)和空调(包括制冷机房、空调末端系统等)两大方面对数据中心能耗现状及问题进行梳理,结合某运营商数据中心建设及改造案例,对数据中心机房提出系统的节能方案建议。 二、数据中心能耗现状 国内某运营商的调研数据显示:数据中心能耗呈逐年上升趋势,2009年比2008年增长了约20%左右,到2010年底,数据中心占该运营商全国网络运营总能耗的比例达到了13%(见图1),特别是在一些IDC业务发展较好的大城市,该比例远远超出了全国平均水平,比如:上海市2010年数据中心能耗占比超过了25%,北京市则达到了50%以上。 图2-1 某运营商2010年网络运营能耗结构 从机楼的角度来看,数据中心能耗主要由三个部分构成:数据通信设备、空调(制冷机房、空调末端系统)及电源(电力输配系统、交直流不间断电源),其能耗占比情况见图2。

数据中心节能方案分析

数据中心节能方案 分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其它专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,当前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,而且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆

放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,可是她们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工

绿色数据中心机房节能技术选用与实施方案研究

绿色数据中心机房节能技术选用与实施方案研究 摘要:空调系统的能耗主要基于自然冷源、智能冷却和机柜冷却。本文主要分析了降低数据中心能耗的节能措施,对使用节能电器降低空调的能耗进行探讨,介绍了能源管理对机房能源管理的影响,旨在为相关工作者提供有效的指导帮助。地面冷却和高效照明系统对计算机空间能耗的影响较大,因此应采取严格的节能措施,降低数据中心的能耗,为建立环保节能的数据中心提供指导。 关键词:绿色数据中心机房;节能技术选用;实施方案;分析研究 人类已进入信息时代,信息通信技术发展迅速。因此,社会对ISP更新和升级设备提出了更高的要求,以适应更高的信息交换率和容量。如今,互联网正进入“云计算”时代,“云计算”的问题是能源消耗,这逐渐成为阻碍“云计算”发展的核心问题。因此,分析数据中心绿色节能技术具有积极的现实意义。 1分析绿色数据中心节能的必要性 中国现在是世界第二大能源消费国,据统计,数据中心的能耗占整个IT产品的总功耗的40%。因此,抓好节能减排和低碳环保势在必行。绿色数据中心是指整个数据中心生命周期中最大的内容量。它可以节省资源、保护环境、减少污染,并提供自然、可靠、安全、完整和高效的数据中心。据统计,国外先进机房的PUE能达到1.2,而我国平均PUE不超过2.0。从中可以看出,数据中心在能源

效率方面与国外存在较大差距。因此,数据中心面临着能源管理中的能耗问题。大消耗、低能效、高成本等与不符合现在社会的需求。 2实现绿色数据中心的主要措施 2.1降低IT设备能耗 IT设备是数据中心中最耗能的用户。选择节能的IT设备是数据中心最重要的节能方法。主要从以下角度考虑IT设备的节能: 2.1.1设备的选择 首先,根据需求购买扩展设备,结合数据中心建设标准,选择扩展能力强的设备。其次优先考虑在相同性能条件下的具有高散热、体积小、重量轻、噪声低且易于安装的设备。在选择方面,建议使用低功耗的CPU核心处理器、高效电源、动态冷却的设备,该设备应能动态调整系统组件(CPU、硬盘、休眠设备)以适应系统运行和充电状态的要求,并支持任务栏线路的同步和智能端接,以达到理想的减少消耗的效果。 2.1.2设备的使用 在保证数据中心安全的情况下,工作人员要最大程度地利用设备,提高设备利用率。例如,根据数据中心的大小,适当配置和维护终端,网络管理服务器和其他设备。为计算,存储和网络数据中心考虑不同的网络资源,使用松散耦合的体系结构来配置不同的资

数据中心十大节能方法

数据中心十大节能方法 Gartner预测,为服务器提供三年以上能源供应的成本会很快超过服务器的采购成本。 考虑到这一点,Eaton公司数据中心解决方案的产品经理Chris Loeffler在Gartner 数据中心交流会上介绍了数据中心节能的十种方法。他说这些“容易实现的”管理方案和技术可以实现降低多达50%的数据中心能源消耗,而无需对可用性做出妥协。 1.关闭空闲设备。 Loeffler说典型的x86服务器在空闲时能源消耗在最大能耗的30%到40%之间。他说,IT组织应该关闭那些不需要执行任务的服务器。如果有人抱怨,组织应该查看使用较少的那部分应用是否可以被虚拟化。 2.虚拟化。 虚拟化是本年度数据中心会议上最热门的话题之一,因此它出现在Loeffler的建议清单中也不奇怪。供应商说服务器利用率通常浮动在5%和15%之间。直接附加存储的利用率位于20%到40%之间。网络存储的利用率在60%到80%之间。虚拟化可以增加硬件利用率大约5到20倍,使组织可以降低产生能源消耗的服务器数量。 3.合并计算。 Loeffler说组织应该尽可能整合服务器,存储和网络。他们应该用刀片服务器替换机架式服务器,因为可以共享电源,风扇,网络和存储等资源。刀片服务器与相同计算能力的服务器比较,需要的能源少10%到25%。他说,组织还应该整合存储,对不同的负载量使用分层存储。 4.使用或者启用CPU能源管理功能。 Loeffler说许多硬件产品带有内建的电源管理功能,但是从没用过。他说:“大部分主流供应商已经使用它相当一段时间了。你只是可能不知道它已经被开发或者服务器自身带有这样的功能罢了。”这种功能支持CPU通过在多种性能状态间动态切换来优化电源消耗。它会基于运行在芯片上的指令数量来降低其输入电压和频率。这样能节约组织高达20%的服务器能源消耗。 5.利用高效率的IT设备供电装置。

相关文档
最新文档