数据中心节能方案分析

数据中心节能方案分析
数据中心节能方案分析

数据中心节能方案分析(总7

页)

-CAL-FENGHAI.-(YICAI)-Company One1

-CAL-本页仅作为文档封面,使用请直接删除

数据中心节能方案分析

数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。

冷热通道隔离技术

经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示:

冷热通道完全隔离隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。

综上所述,虽然这两种方法都可以提高空调使用效率,但是相比较起来,隔离热通道比隔离冷通道的效率更高、适用性更好。

冷源方案比较

根据统计数据表明,数据中心的制冷系统占机房总功耗的40%左右。机房中的制冷主要是由机房空调负责,所以降低机房空调的耗电量可以有效的降低机房的PUE值。目前数据中心中较为常用节能制冷系统有以下四种:

(1)水冷冷冻水机组+自由冷却系统

本方案组成设备包含:水冷冷水机组、板式换热器、冷却水泵、冷却塔、冷冻水泵、定压补水装置、加压装置、蓄冷水罐、末端空调机组等组成。整个系统由冷冻水系统和冷却水系统组成,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。

(2)风冷冷冻水机组+自由冷却系统

本方案组成设备包含:风冷冷水机组、干盘管、冷冻水泵、定压补水装置、加压装置、蓄冷水罐、末端空调机组等组成。本系统做自由冷却用的干盘管可集成于风冷冷水机组内,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。

(3)自带冷源式风冷空调机组+自由冷却

自带冷源式风冷空调机组系统属于分散式空调系统,空调机组由室内机、室外机、干盘管组成。室外机内置压缩机,干盘管集中布置于室外,母管连接由水泵分配至各室内空调机,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。

(4)模块末端全空气空调机组水冷冷冻水

本方案组成设备包含:水冷冷水机组、冷却水泵、冷却塔、冷冻水泵、定压补水装置、加药装置、蓄冷水罐、全空气循环风机组等组成。过渡季及冬季直接把室外冷空气经全空气循环风机组处理后送至机房内,以减少冷源部分的能耗,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。

数据中心到底使用哪种制冷系统,需要根据项目所在地的各项条件综合考虑。在我国长江以北地区,如果有条件建议采用水冷冷冻水机组+自由冷却系统的方式设计制冷系统,这样在冬季气温7-12℃时可以采用预冷的方式,使用部分冷冻机组。在室外温度小于7℃时,可以不启动冷冻水机组,完全用自由冷却系统对机房降温,大大减少的了能源的消耗。

采用变频电机

空调系统的制冷能力和环境密切相关,夏天室外温度越高,制冷能力越低,因此大型数据中心空调系统的制冷量都是按最差(夏天最热)工况设计的(空调的制冷量一般要比其在理想工况下的额定值低,这时建筑物本身不但不散热,反而吸热)。这样,全年绝大部分时间空调系统运行在负荷不饱满状态。另外,大型数据中心的IT负荷从零到满载也需要相当的时间,一般也在一到三年之间。还有,IT负载的能耗和网络访问量或运行状态相关,根据其应用的特点,每天24小时的能耗都在变化,一年365天的能耗也都在变化。比如,游戏服务器在早上的负载和能耗都比较低,但在晚上就比较高;视频服务器在遇到重大事件时的负载和能耗就比较高。

因此,在水冷系统中所有电机采用变频系统,这样可以节约大量的能量,其增加的投资一般在一年内节省的电费中就可以收回(基本满负荷情况下)。对于风机和水泵,输入功率和这些设备的转速的三次方成正比。例如,如果风机或水泵的转速为正常转速的50%,仅需要同一设备运行在100%额定转速时理论功率的%.因此,当设备运行在部分负荷时,变速装置的节能潜力十分明显。

提高冷冻水的温度

冷水机组标准的冷冻水温度为7到12℃,水冷空调的标准工况也是认为冷冻水温度为7到12℃。但是这个温度范围对于数据中心来说有点低,带来以下两个不利因素:

这个温度大大低于数据中心正常运行在40%左右相对湿度的露点温度,将在风机盘管上形成大量的冷凝水,需要进一步加湿才能保持机房的环境湿度。这个除湿和加湿过程都是非常消耗能量的过程。

冷冻水的温度和冷水机组的效率成正比关系,也就是说冷冻水的温度越高,冷水机组的效率也就越高。根据YORK公司在网络上公布的材料,冷冻水温度每提高一度,冷水机组的效率就可以提高大约3%.

目前,在集装箱数据中心和高功率密度的冷水背板制冷技术中都把冷冻水的温度设计为12到18℃,已经高于露点温度,完全不会除湿,也就不需要加湿。冷冻水的温度提高后,水冷精密空调的制冷能力会下降,实际的制冷能力需要厂家提供的电脑选型软件来确定,一般会下降10%到15%.但是由于冷冻水温度

提高后很少或基本不除湿和加湿,加上采用EC调速风机,电机产生的热量减少,整个水冷精密空调的实际制冷能力(显冷)下降并不多。

供配电系统节能

精确计算供电功率:使用用电管理软件精确计算用电功率和智能化控制系统用电,提高电源利用率。为机房建设规划提供更精确的数据,智能控制整体用电量。

供配电系统节约电能的技术方法,主要是配电电压深入负荷中心、配电变压器的正确选择和经济运行、配电线路的合理选择和经济运行、电压调节和无功补偿等技术和方法的采用。配电系统的降损节能技术措施如下:

(1)合理使用变压器

根据用电特点选择较为灵活的结线方式,并能随各变压器的负载率及时进行负荷调整,以确保变压器运行在最佳负载状态。变压器的三相负载力求平衡,不平衡运行不仅降低出力,而且增加损耗。

(2)重视和合理进行无功补偿

合理地选择无功补偿方式、补偿点及补偿容量,能有效地稳定系统的电压水平,避免大量的无功通过线路远距离传输而造成有功网损。对配电网的电容器无功补偿,通常采取集中、分散、就地相结合的方式;电容器自动投切的方式可按母线电压的高低、无功功率的方向、功率因数大小、负载电流的大小、昼夜时间划分进行。

(3)对低压配电线路改造,扩大导线的载流水平

按导线截面的选择原则,可以确定满足要求的最小截面导线;但从长远来看,选用最小截面导线并不经济。如果把理论最小截面导线加大一到二级,线损下降所节省的费用,足可以在较短时间内把增加的投资收回。

(4)减少接点数量,降低接触电阻

在配电系统中,导体之间的连接普遍存在,连接点数量众多,不仅成为系统中的安全薄弱环节,而且还是造成线损增加的重要因素。必须重视搭接处的施工工艺,保证导体接触紧密,并可采用降阻剂,进一小降低接触电阻。不同材料间的搭接尤其要注意。

(5)采用节能型照明电器

根据建筑布局和照明场所合理布置光源、选择照明方式、光源类型是降损节能的有效方法。推广高效节能电光源,以电子镇流器取代电感镇流器;应用电子

调光器、延时开关、光控开关、声控开关、感应式开关取代跷板式开关,将大幅降低照明能耗和线损。

不间断电源节能

UPS的节能必需从方案、UPS、电池、配电等方面全方位进行。

(1)按需扩容的柔性规划

目前,数据中心大多是分期分模块的进行建设,考虑今后未来几年的扩容,在设计时UPS容量一般都考虑容量比较大些,一次就安装了几套大功率的UPS并机,初期负载量只有规划容量的10%~20%,使UPS的利用率很低,造成电能的浪费,为了避免这种情况的发生,需要采用模块化的UPS,逐步扩容。

(2)提高UPS能效

目前UPS均为在线式双变换构架,在其工作时整流器、逆变器均存在功率损耗。提高UPS的工作效率,可以为数据中心节省一大笔电费,可见提高UPS效率是降低整个机房能耗的最直接方法。因此采购UPS,尽量采购效率更高的UPS。

当然UPS效率高不仅仅是满载时效率高,同时也必须具备一个较高的效率曲线,特别是在“1+1”并机系统时,根据系统规划,每台UPS容量不得大于50%,如果此次效率仅为90%以下,就算满载效率达到95%以上,也是没有意义的,所以要求UPS必须采取措施优化效率曲线,使UPS效率在较低负载时也能达到较高的效率。

(3)降低输入电流谐波,提高功率因数

谐波产生的根本原因是由于电力线路呈现一定阻抗,等效为电阻、电感和电容构成的无源网络,由于非线性负载产生的非正弦电流,造成电路中电流和电压畸变,称为谐波。谐波的危害包括:引起电气组件附加损耗和发热(如电容、变压器、电机等);电气组件温升高、效率低、加速绝缘老化、降低使用寿命;干扰设备正常工作;无功功率增加,电力设备有功容量降低(如变压器、电缆、配电设备);供电效率低;出现谐振,特别是柴油发电机发电时更严重;空开跳闸、熔丝熔断、设备无故损坏。解决方法主要有以下四种:

·采用12脉冲整流器

·采用无源滤波器

·采用有源滤波器

·采用高频IGBT整流及PFC功率因数校正电路设计整流器

高压直流供电技术

与传统48V供电系统类似,高压直流供电系统是由多个并联冗余整流器和蓄电池组成的。在正常情况下,整流器将市电交流电源变换为270V、350V或420V 等直流电源,供给电信设备,同时给蓄电池充电。电信设备需要的其它电压等级的直流电源,采用DC/DC变换器变换得到。市电停电时,由蓄电池放电为电信设备供电;长时间市电停电时,由备用发电机组替代市电,提供交流输入电源。高压直流供电的优势有以下几点:

(1)可靠性

直流电源模块化輸出和电池直接并联给负载供电,后备电池与电源后段并联给服务器构成2路冗余供电,可靠性高,真正不间断;如果UPS后备电池只是与电源前段并联给DC/DC供电,整个系统供电对数据设备不是冗余供电模式。在某种原因下UPS系统崩溃,电池不能直接应用,导致后端设备断电。而采用直流供电,杜绝系统崩溃带来的断电风险。

(2)可操作、维护性

并机容易,并且可以做成系统解决方案,做到安全不间断割接,功率部分采用模块化,支持带电热插拔,可快速更换,功率部分和监控功能模块CSU之间正常工作是监控单元CSU控制,故障时各自独立控制,避免故障扩散。更换模块和监控单元CSU是互不影响的,便于维护。

(3)提高负载的可靠性

计算机等开关电源内部的桥式整流变为直流电正负极防接反电路,即使计算机输入电源的正负极接反,不影响计算机的正常工作。影响设备寿命和故障的一个重要因素是电容元件的失效问题,交流电经过整流桥之后是一个脉动直流电,使后面的电容元件不停的充放电,寿命缩短。采用直流供电,元器件的寿命延长。延长了负载设备的寿命,提高了其可靠性。

(4)智能化管理

直流高压开关电源系统与传统48V直流电源系统一样,可以很方便的对电池进行全面的智能化管理,具有完备的电池管理系统,有效延长了电池的使用寿命,降低了运营成本,提高了供电的可靠性;UPS电池管理简单、不全面,电池容量损失速度快。

(5)降低谐波干扰

对于计算机和服务器来说,采用直流输入,不再存在相位和频率的问题,多机并联变得简单易行。无谐波干扰,UPS存在輸出功率因数,一般在0。6~0。8。

(6)安全性

直流高压电源系统,是标准电气柜,安全性高,并且对分路输出和母线的绝缘状况实时监控,对人身伤害预警大大提高;UPS非标一体柜,安全性低。

(7)高效节能

由于省掉了逆变部分,直流开关系统经过2次变流,电源效率达到92%以上,UPS系统经过4次变流效率一般70%左右,这样大大节省能源,降低运营成本。

提高机房温度

根据中华人民共和国国家标准GB50174-2008《电子信息系统机房设计规范》,A类和B类机房的主机房温度要求保持在23±1℃,也就是22到24℃。

ANSI/TIA-942-2005《Telecommunications Infrastructure Standard for Data Centers》中规定冷通道温度为华氏68-77度,也就是20到25℃。美国采暖制冷与空调工程师学会(ASHRAE)2008年新的机房冷通道温度已经从2004年的20到25℃提高到18到27℃。由于国家标准中规定的主机房温度没有指定是机柜前的进风温度,传统机房存在以下两方面不足:

·由于没有冷通道或热通道封闭,机房温度特别的低,设备内部的温度并不低,大量的冷气短路自循环。

·机房温度往往低于24℃,处于过度制冷状态。

现代服务器和网络设备等并非传统观念(10年或20年前)中认为的那么娇贵,大部分服务器在温度10-35℃,相对湿度20%-80%都可以正常运行(ASHRAE 认为的设备环境要求,也是绝大部分商用服务器的工作环境要求范围)。因此可以提高空调送风温度,保证IT设备的运行温度即可。当空调系统的送风和回风温度提高1℃时,空调系统节电约%。同时空调系统的制冷能力提高约5%。

因此,在用户认可的条件下,提高机房的温度是节约能源的措施之一。建议数据中心冷通道的温度(ASHRAE标准要求在冷通道中间对准机柜中间米高度测量,每4个机柜至少一个测试点)最低为为24或25℃。

科学运维

·人走关灯和关闭大屏幕显示器,减少照明产生的能耗以及相应增加的制冷量。

·尽量减少运行新风系统。在机房无人时关闭相应区域的新风系统。

·建议冷通道的温度不低于25℃。定期检查冷通道的温度以免过度制冷造成能源浪费。

·定期检查地板,防止各种方式的漏风。

·冷通道必须完全封闭,机柜上没有设备的区域必须安装盲板,没有负荷的机柜区域不能安装通风地板。每次设备变更,都要进行检查。

·在能够满足制冷的条件下尽可能提高冷冻水的温度,最高为12到18℃。·在气象环境满足的条件下,尽量使用全自然或半自然免费制冷。

·定期核对数字采集数据和模拟显示仪表的数据是否一致,若发现数据存在误差,立即更换有关采集设备或仪表。

·对于还没有使用的独立机房区域,关闭所有机电设备,包括冷冻水管道的阀门。

·定期检修和清洗冷冻机组内的铜管和冷却塔,确保其工作在最佳状态。

·对于低负荷的机房,如果精密空调没有EC风机,就要关闭相应的空调,如果是EC风机,要通过实践摸索出更节能空调运行方式。

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

数据中心节能改造的7种解决方案图文【最新版】

数据中心节能改造的7种解决方案图文 点评网()报道:随着计算机网络业务量的迅速增长、服务器数量的增加,机房的面积及规模也在不断扩大,数据中心的能耗成本也迅速增加,并有赶超硬件成本的趋势。据权威机构调查显示,我国每年用于服务器的电源和冷却的总开支超过了20亿美元。对于已经建成投产的数据中心,如何实现有效的节能改造,需要从多方面考虑。本篇介绍了数据中心基础设施节能改造的几种主要解决方法。 一、设计一套机房整体监控系统 图IT设备负载变化曲线 从机房负荷和空调冷量配置来看,机房一般设计为N+X的安全运行模式,但从整个机房IT设备布局来看,由于机房面积较大,考虑其循环风量及减少机房局部温度死角等问题,及负载设备功耗的动态变化,精密空调群无法做到人为控制按照需求运行,机房发热量变化

无规律可以遵循,所有室内风机全速运行,压缩机由每台空调独自按照自己的需求进行控制,此种运行模式从运行费用角度来说是不经济节能的。如果强制空调群中的冗余设备进行关机运行,由于机房气流组织及温度变化规律很难掌握,人为控制空调的开机与关机也很难做到机房安全,因此可能存在局部温度不可控的现象。因此,机房精密空调群控対机房节能起到至关重要的意义。 机房专用空调群控节能的思路是:在保障机房设备正常运行的前提下,通过减少冗余空调设备的运行时间,来降低整个机房的能耗,实现空调系统的备份/轮循功能、层叠功能、避免竞争运行功能、延时自启动功能。 结合曙光自适应集群功率与能耗监控系统,进行精密空调集群集中管理,管理软件根据CPU占有率计算每一排的服务器功耗,根据负载分布情况及精密空调分布情况精确控制相应位置空调的工作状态,其中主要包括压缩机的启停和空调室内机的风扇启停。精密空调通过RS485网络与协议转换器通信,协议转换器通过以太网与管理节点协同工作,这样使不同厂家的精密空调(具有监控功能)能够通过曙光标准协议接口与管理节点进行数据交互每个服务器机柜内安装两个无线温湿度探头,每排机柜构成一个网络,通过物联网的组网方式形成一个温湿度监控网络,并通过以太网将数据上传至管理节点,形成双层监控网络,在监测到服务器到温的时候,开启机房空调,在节能的

基于绿色数据中心节能建设分析

基于绿色数据中心节能建设分析 发表时间:2016-11-09T15:21:54.870Z 来源:《基层建设》2016年16期作者:刘宝新 [导读] 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 北京国信网通科技有限公司北京市 100085 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 关键词:绿色;数据中心;节能建设 1绿色数据中心节能指标分析 目前,衡量数据中心是否绿色的主要量化指标是采用绿色网格组织(GreenGrid)制定的能效比指标,又称为PUE(PowerUsageEfficiency)。 PUE=[TotalFacilityοfPower(设备总能耗)ITEquipmentPower(IT设备总能耗)×100%]=1+[空调能耗IT设备能耗]+[通风能耗IT设备能耗]+[配电能耗IT设备能耗]+[UPS能耗IT设备能耗]+[照明能耗IT设备能耗]+…… PUE反映了数据中心总能耗和计算、存储、网络等IT设备能耗的比值。PUE值大于1,其数值越小,说明能源利用率越高。目前,国外先进的数据中心的PUE值能达到1.5~1.8,而我国的数据中心的PUE值为2~3,说明仅有33%~50%的电能用在了IT设备运行上,50%~66%的电能消耗在空调、配电等设备上。 2建设绿色数据中心应遵循的原则 2.1突出绿色环保,科学拟制方案:绿色数据中心建设要结合数据存储使用需求,根据信息采集、传输、处理和分发的具体使用需求,以及IT设备的具体特点,围绕绿色环保对数据中心的供电方式、UPS电源容量、制冷方式、照明、风路、水路、电路、管网、主要IT设备的选型等方面进行综合考虑,进行统一规划设计,并逐项细化,寻求最高效益。 2.2突出节能高效,合理配置资源:首先要突出保障重点。根据实际和存放数据的重要程度,可将数据中心划分为高密区、中密区和低密区,重点对高密区的电源、通风、制冷设备采取多种技术措施,制订多种配置应用方案。其次要便于系统扩容。根据信息化建设的发展特点,基础设施需求会呈现非线性爆炸性增长趋势,所以在数据中心的规划建设中,要充分考虑选址合理、系统容量易于扩展。 2.3突出稳定可靠,提高重组能力:不能稳定可靠运行的数据中心是无用的数据中心,因此设计数据中心一定要在提高其重组再生能力方面下功夫。硬件设施方面,在电源引接上,要有两个以上不同方向的路由线路;在UPS配置上,要采取多组互联方式,保证每个PDU单元、每个机柜的接电排、每个设备的电源输入端子上,都有两路以上独立UPS电源引接;在风机、制冷及配线上要进行N+1备份,对重要的保障区域要实现1+1备份。软件配置方面,运用云计算及虚拟化技术,将故障的网络、计算、存储等设备的应用随时自动平滑迁移到其他网络、计算、存储设备上,保证业务的不间断运行,提高系统重组能力。 2.4突出安全智能,提高管控水平:在外围监控上,要设立安全隔离区,建立由电子围栏、红外探测、夜视监控、自动报警、门禁系统等组织的综合外围监控系统,以提高安保等级。在区域设置上,区分维护区、设备区、控制区,将数据中心规划为不同的安全防护等级,采取多种身份认证措施和不同的防护手段,对核心控制区要设置以生物特征识别为基础的身份认证系统,严格人员进出管理;对核心设备区要设置气体消防,保证设备安全。在防电磁泄露上,对电源线、信号线等要采用屏蔽电缆,避雷装置和电缆屏蔽层应接地,对核心设备区要加装电磁屏蔽设施,保证设备安全可靠;在智能管理上,对数据中心的周边安全、内部温(湿)度等环境参数,对风、机、电、水相关配套系统运行指标,对计算、存储、网络设备负载运行状态,要能做到实时感知、直观呈现、智能处理,提高运维管理效率。 3建设绿色数据中心应关注的问题 3.1减少IT设备能耗:根据能耗结构和能耗路径图,IT设备每减少能耗1W,数据中心将整体减少能耗2.84W。在保证效率的前提下,降低IT设备的能耗是一个最有效的方法。从实现技术上看,主要有两种方法:一是采用高效低耗的核心部件。受加工工艺和技术水平的影响,不同供应商提供的CPU等核心处理器在能耗上存在20%~40%的差异,要尽量采用节能产品。二是采用工作效率较高的新型服务器,如用刀片式服务器取代机架式或塔式服务器,设备可节能20%~30%。 3.2采用虚拟化技术:采用虚拟化技术对现有服务器、存储设备进行整合,在不增加硬件投入成本的情况下,将所有的服务器、存储设备虚拟成一个公用的资源池,统一灵活调配,提供服务,在提高性能的同时减少物理服务器、存储设备的数量,减少电力、制冷和场地成本。在服务器方面,传统服务器平均CPU利用率一般为7%~15%,经虚拟化整合后,CPU利用率能提高到60%~70%,还能实现虚拟服务自动迁移、数据存储整体读写速率、系统鲁棒性和高可用性的提高。 4.3提高制冷效率:机房空调对数据中心的安全稳定运行起保障作用,空调耗电量在数据中心的总耗能中约占50%,已经超过了IT设备本身的耗电成本。提高制冷效率,主要从两个方面入手:①使用精密空调替代普通空调。同功率的普通空调和精密空调产生同样的制冷量,前者耗电量是后者的两倍。②规划好机房内冷热气流通道,避免交叉。传统的机房空调直接对机柜吹风或采用下送风方式,送(回)风路径不合理,应采用冷热气流通道隔离技术,科学设计机房各要素布局,缩短冷气流的运行距离,实现精确定点的冷能量投送,以减小能量消耗,提高空调制冷效率。 3.4减少供电模式转换:交流直流转换过程中的热损耗是数据中心隐性耗电的“大户”,能耗高达20%~30%。在传统供电方式下,为UPS 充电,要将外部交流电源转换为直流为电池充电;使用UPS电源时,要将UPS电池直流转换为交流,为IT设备电源模块供电;IT设备工作时,由于CPU等耗电设备是直流供电,IT设备电源模块要将外部交流转换为直流。在条件允许的情况下,尽量使用直流供电的服务器,通过直流电源供电方式,减少交流和直流电源逆变的次数,以提高电能应用效率。 3.5加强运维管理:通过精确智能的运维管理工具,实时监控和分析各种IT设备负载情况,及时发现、处理、维修、停用异常的IT设

高效数据中心的六大绿色节能措施

高效数据中心的六大绿色节能措施 和一两年前相比,很多数据中心的运营者们如今也并未热衷于“绿色”这个词。这当然不是说他们已经抛弃了旨在提升能源效率,更好地利用IT资源的各种项目,因为这些项目既可以削减运营成本,又能减少对环境的影响。 市场咨询公司451集团在考察了被大批组织和机构所接受的可降低数据中心运营成本的六种绿色实践之后,发布了一份内容全面的报告:《高效节能的数据中心实践》。其中的一些实践做法,如进行数据中心的全面规划,寻找可替代传统制冷系统的方案等可能早已被大家所熟知;其他做法,如采用直流供电和预制件数据中心等,则很少有人谈及,或者被认为不可持续而不予理会。 在计划升级其设施时,数据中心的运营者们应该好好考虑或者重新考虑一下这些趋势。当然,并非所有这些实践都适合每一个组织,但如果你不去看看,那你就有可能永远都不知道有这些实践做法存在。 实践1:采取综合的可提升整体效率的方法 数据中心运营者需要通过结合了集成技术和各种手段全面处理效率问题的方法,而不能孤立地去对待每个项目。这其实并不是什么开创性的概念:绿色网格组织从2008年成立以来就一直在提“通盘考虑”的口号。而这样做的最大好处之一就是可以促进各部门间,尤其是设施部门和IT 部门间的协同,确保所有的参与者在对数据中心进行升级改造时能够意见一致。举例来说,IT 部门订购了一个用于关键任务项目的高端服务器机柜,那么他只需要在机柜到达数据中心时打听一下是否有足够的电力或冷却能力支持这个机柜便可。 组织内的协作并未到此结束。为了努力减少能源浪费,很多企业部门之间如今已越来越开放,曾经是各部门最隐秘的东西也可以公开。这方面最有名的例子就是Facebook,利用其开放计算项目,该公司有关高效服务器、机柜和冷却设备的蓝图也都在开源。 实践2:更智能的冷却系统 数据中心运营者们正逐渐意识到,数据中心设施并非存放肉类的大冰柜,只需要适当制冷即可。虽说IT管理人员不希望设备因过热而失灵。但如果你花在IT上的每个美元都得分出50美分用于制冷的话——这正是很多传统数据中心的平均PUE比值——那几乎可以肯定你是在烧钱。 有好多种办法可以降低冷却成本,其中一些技术始终不被企业所接受,生怕会毁掉他们的宝贵硬件。这其中就包括液体冷却技术,该技术被认为会产生很多维护方面的问题,而且使用范围有限。但是来自绿色革命冷却公司的一种液体冷却方法采用了低成本、无污染的绝缘液体,据称其吸热能力是空气的1200倍。 至于空气冷却这种免费冷却方法则要比液体冷却更受欢迎。这个概念也很简单:只要把数据

数据中心八大节能八个步骤

数据中心八大节能八个步骤 现有的节能技术大都没有顾及电力需求增长的主要因素,只考虑如何降低整体能耗成本。企业为数据中心节省能源同时提高效率,其实还有更有效的办法。只要实现高效存储数据,减少机器及磁盘数量,就能解决急速增长的能源消耗问题。这个策略不仅可以减少系统的复杂性,降低成本,还可以改善网络效率和性能表现,从而对新的业务需求能做出更好的反应。 1. 整合服务器和存储系统 服务器本身已消耗了数据中心的一半能源,而存储系统是另一大能源消耗者。事实上,窗口数据的大幅增长,导致了窗口档案服务器和直接附加存储系统的数目急增。因此,只需设立一个存储网络,整合服务器和存储系统,减少设备数量,数据中心的可用能源就能迅速增加,从而提高能源效益。 2. 选用高容量磁盘驱动器 典型的SATA磁盘驱动器,与相同容量的光纤通道(Fibre Channel) 磁盘驱动器相比,可以节省大约一半的能源。同时,它们可以提供最高的磁盘驱动器可用存储密度,进一步降低能源消耗。一些具有磁盘修复及数据保护技术的SATA磁盘正日趋流行,成为很多企业应用的理想选择。 3. 减少磁盘驱动器数量,防止磁盘故障 SATA磁盘驱动器的数据存储量比光纤通道主磁盘驱动器多,但我们不能因此而忽略了数据可靠性。当前流行的双区间(Dual-parity) RAID-DP,能够提供更高的存储利用率和错误容忍度,可同时修复两个故障磁盘驱动器的数据。 4. 将数据转移到更高效的存储系统 为确保最有效地使用存储资源,可以把数据转移到次存储系统以减低主存储的负荷。一个完善的信息服务器能自动把存取率较低的数据,自动由主存储器转移到存储效益较高的次存储系统去。 5. 提高利用率 据业内估计,存储利用率只有25%-40%,即大约有60%-75% 的存储容量还没有被使用,却在不停地消耗能源。市场上有些方案能有效解决这个问题,通过共享存储,让所有磁盘都可以存取数据,平均存储利用率可高达60%。 6. 单方案多应用 只要掌握了数据备份的窍门,就能大幅节省存储空间。第一,只存储变更的数据。第二,用数据备份实现多个不同应用,以降低对特定存储系统的依赖,同时将后备系统用于验证及异步灾难恢复,减少特定存储系统的数量,节省更多能源。第三,重复数据删除技术(Deduplication) 可以避免对存储于主磁盘阵列的多余数据进行重复备份,缓解增加次存储容量的需求。

数据中心节能方案分析

数据中心节能方案分析(总7 页) -CAL-FENGHAI.-(YICAI)-Company One1 -CAL-本页仅作为文档封面,使用请直接删除

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。

数据中心电源及空调节能方案研究

数据中心电源及空调节能方案研究 摘要:本文主要从电源和空调两个方面对数据中心能耗现状及问题进行梳理,结合某运营商数据中心建设及改造案例,对数据中心机房提出系统的节能方案建议。 关键词:数据中心、电力输配系统、不间断电源、制冷机房、空调末端系统、节能 一、概述 随着社会电子信息化程度的提高,企业的业务和管理朝着电子化和网络化的方向快速发展,在这种背景下,通信运营商的IDC业务得到了迅速的发展。随着电子信息及制造技术的飞速提升,数据中心机房的设备密集度大大提高,耗电巨大,发热量更加集中,机房局部过热现象增多,机房内单位面积空调冷负荷急剧增加,由此引来的主设备运行故障和能耗逐年上升,甚至成为了制约通信业务发展的一大瓶颈。同时,具有重要战略地位及发展潜力数据中心作为通信行业高能耗的代表也成为了大家关注的焦点,国内外各大运营商及相关研究机构都陆续开展了一系列数据中心节能试点改造,取得了良好效果。 本文主要从电源(包括电力输配系统、交直流不间断电源等)和空调(包括制冷机房、空调末端系统等)两大方面对数据中心能耗现状及问题进行梳理,结合某运营商数据中心建设及改造案例,对数据中心机房提出系统的节能方案建议。 二、数据中心能耗现状 国内某运营商的调研数据显示:数据中心能耗呈逐年上升趋势,2009年比2008年增长了约20%左右,到2010年底,数据中心占该运营商全国网络运营总能耗的比例达到了13%(见图1),特别是在一些IDC业务发展较好的大城市,该比例远远超出了全国平均水平,比如:上海市2010年数据中心能耗占比超过了25%,北京市则达到了50%以上。 图2-1 某运营商2010年网络运营能耗结构 从机楼的角度来看,数据中心能耗主要由三个部分构成:数据通信设备、空调(制冷机房、空调末端系统)及电源(电力输配系统、交直流不间断电源),其能耗占比情况见图2。

世界500强数据中心机房节能方案

微软(上海) 数据中心机房节能解决方案 ?全球唯一基于I D C绿色节能的物联网应用平台 ?2+8(2项成果,8大核心技术突破) ?已获8项技术专利、10项软件著作权 ?制冷能源节约高达60% ?效率提高200% ?N A T o p I n t e r n a t i o n a l.D e c.2013

优化效果现状分析优化方案合作模式案例学习

100200300400500600700869.4万 289.95节能效果: PUE 值从2.36下降至1.5, 每年将减少制冷电费支出115.89万元, 五年总节约579.45万的电费, 节约2,343吨标煤, 减排5,782吨CO2, 约合119亩森林。 优化前 五年原所需制冷电费 优化后 五年现所需制冷电费 优化效果——节能效果

5010015020025030012 3 优化前 IT 负荷 优化后 IT 可增容负荷 2倍容量增加 优化效果——经济效益 经济效益: 优化后,不增加基础设施,IDC 可以增加二倍的IT 负荷,即可增加二倍的经济收入;同时能源节约的绝对值也相应提高。 155KW 310KW 450KW 优化后 IT 可增容负荷

优化效果现状分析 优化方案合作模式案例学习

现状分析: 建筑面积:230.4 平方米 机柜:115台,前后网孔门, 地板:活动地板,下送风, 地板高度400mm, 空间阻碍物少 精密空调: ASD1500CW 146KW(显冷) 5台(4+1) UPS: Hipulse 400KVA 1台 + 300KVA 1台 风道:机柜采用自然冷热通道分隔模式 机房温度: 22o C , 机房湿度:50% 机房现状

数据中心节能方案分析

数据中心节能方案 分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其它专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,当前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,而且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆

放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,可是她们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工

数据中心十大节能方法

数据中心十大节能方法 Gartner预测,为服务器提供三年以上能源供应的成本会很快超过服务器的采购成本。 考虑到这一点,Eaton公司数据中心解决方案的产品经理Chris Loeffler在Gartner 数据中心交流会上介绍了数据中心节能的十种方法。他说这些“容易实现的”管理方案和技术可以实现降低多达50%的数据中心能源消耗,而无需对可用性做出妥协。 1.关闭空闲设备。 Loeffler说典型的x86服务器在空闲时能源消耗在最大能耗的30%到40%之间。他说,IT组织应该关闭那些不需要执行任务的服务器。如果有人抱怨,组织应该查看使用较少的那部分应用是否可以被虚拟化。 2.虚拟化。 虚拟化是本年度数据中心会议上最热门的话题之一,因此它出现在Loeffler的建议清单中也不奇怪。供应商说服务器利用率通常浮动在5%和15%之间。直接附加存储的利用率位于20%到40%之间。网络存储的利用率在60%到80%之间。虚拟化可以增加硬件利用率大约5到20倍,使组织可以降低产生能源消耗的服务器数量。 3.合并计算。 Loeffler说组织应该尽可能整合服务器,存储和网络。他们应该用刀片服务器替换机架式服务器,因为可以共享电源,风扇,网络和存储等资源。刀片服务器与相同计算能力的服务器比较,需要的能源少10%到25%。他说,组织还应该整合存储,对不同的负载量使用分层存储。 4.使用或者启用CPU能源管理功能。 Loeffler说许多硬件产品带有内建的电源管理功能,但是从没用过。他说:“大部分主流供应商已经使用它相当一段时间了。你只是可能不知道它已经被开发或者服务器自身带有这样的功能罢了。”这种功能支持CPU通过在多种性能状态间动态切换来优化电源消耗。它会基于运行在芯片上的指令数量来降低其输入电压和频率。这样能节约组织高达20%的服务器能源消耗。 5.利用高效率的IT设备供电装置。

数据中心能耗管理系统建设方案

能耗管理系统方案 北京盈泽世纪科技发展有限公司 2012年5月--

一,概述 近年来,随着企业能耗的急剧增加和电价的日益上涨,期望节约营维成本的管理人员,正越来越关注能源的成本问题。在不可再生能源日益稀缺和成本日益上升的今天,要求我们应采取必要的技术措施和管理手段,来建立具有“增容不增耗”的节能降耗型“绿色企业” CSS8800就是本公司为企业能耗监测问题提供的管理利器,本系统正对机房的IT设备、空调设备、照明设备、电源等系统的用电情况进行实时监测,对设备耗电情况进行精细化统计和分析,定时生成多种数据报表,提供节能改造的建议,并对各种节能措施的节能效果进行评测,通过分析得到不同条件下最优的节能措施和解决方法。 1.1对能源消耗管理的理解 根据我们的理解,企业能源消耗管理的工作目标可以分为4个方面:能源消耗统计、能源消耗分析、能源消耗测评、能源消耗预测,其核心是能源消耗计量。测量是把握现状的前提,只有有准确、全面、及时的测量,才能计算单位能耗、费用和节能效果。

随着各企业自动化和信息化建设的开展,很多企业逐步装配了大量的自动计量仪表,并在此基础上建立了DCS系统、MES系统等,为企业能源消耗管理提供了基础。 部分自动化仪表设备少的企业也已经将改造计量装置、信息系统建设等内容纳入了未来几年的规划。 1.2能源消耗管理整体思路 伴随企业的迅速发展,节能降耗作为企业一个重要工作内容,管理单位面临的既是机遇也是挑战,一方面急剧扩张的公司节能需求为自身的发展壮大提供了广阔的发展空间,另一方面严格、持续的节能目标必将带来管理和优化复杂程度的迅速提高。 效率是企业的生命,如何提高工作效率也是摆在企业面前的头等大事情,通过不断的实践,信息化,自动化以其迅速、快捷、稳定、可靠的应用特征可以很好的满足能源管理的需求。

数据中心机房节能措施

数据中心机房节能措施 在保证高效运行的同时,绿色节能是数据中心建设的一大亮点。重要的数据中心通常按照GB50174中的A级标准进行设计,系统按容错配置,在信息系统运行期间,场地设施不会因操作失误、设备故障、外电中断、维护和检修而导致的电子信息系统运行中断。配电系统采用高可靠的双总线2N配电结构,确保7*24小时不间断运行。PUE值是评价数据中心能源效率的指标,是数据中心消耗的所有能源与IT负载使用的能源之比,PUE = 数据中心总设备能耗/IT设备能耗,PUE是一个比值,基准是2,越接近1表明能效水平越好。绿色节能方面主要从以下几点进行考虑: 1、精密空调机组选用EC风机的设备,EC风机逐步加速不会产生大的启动电源,在即时负荷最高效率下运行,增加了电机的寿命,EC风机的低功耗、高效率间接降低了运行成本。与传统的AC电机相比,EC风机使的其他零部件的使用更加有效,低负荷运行时能耗明显降低,EC风机使用的电能仅仅是工业标准风机使用的电能的1/3,节能效率可达50%以上。(省公司主机房有6台艾默生P2055F精密空调,采用传统的AC风机,每台空调的风机功率约5KW,共30KW,如采用EC风机的精密空调,可节电15KW以上。) 2、机房内机柜的冷通道或者热通道进行封闭处理,使机房内设备的进风\出风通道形成一个密闭空间,使冷空气和热空气之间形成完整的隔离,避免制冷短路及重复制冷,达到节能效果。

3、夏季室外高温导致室外冷凝器散热效果不佳,且空调外机位置扬尘较多,翅片容易积尘,空调系统内部长期运行在高温高压状态,机组各个部件的使用寿命受到极大影响,一些系统上的关键部件,比如:压缩机、干燥过滤器、膨胀阀、室外冷凝风扇等部件,容易出现故障,导致机房空调机组停机的可能性也就大大增加,严重威胁着机房核心设备的安全运行。 由于机组长期运行在高压的环境下,压缩机的工作电流大大高于正常压力下的工作电流,直接导致机组的耗电大幅度提升。空调室外机冷凝器散热不良(配置问题、安装环境、冷凝器老化等各种因素造成)会导致空调制冷效率有较大幅度下降。因此,需要对冷凝器的散热环境进行改善,改善后可以提高空调的制冷能力和能效比,降低设备运行的故障率,延长压缩机等关键部件的使用寿命。 为精密空调机组设计专用喷雾降温加湿预冷却省电系统,喷雾降温系统铜鼓加湿空气,有效地降低精密空调外机散热压力,延长其使用寿命,通过空调室外机喷雾降温,可为空调节电20%以上,同时提高制冷安全性。

电信互联网数据中心(IDC)的能耗测评方法

电信互联网数据中心(IDC)的能耗测评方法核心提示:本标准分析了互联网数据中心(以下简称数据中心)的能耗结构,定义数据中心的能效指标,提出数据中心能耗测量方法和能效数据发布要求。本标准主要规定了数据中心的直接消耗的电能,不包括油、水等其它能源或资源的消耗。本标准适用于数据中心能 耗的测量及能效的计算,用于了解数据中心能源效率状况,比较不同数据中心之间的能源效率及作为数据中心节能水平评级的依据。 前言 本标准是数据中心的系列标准文件之一,该系列标准文件的预计结构及名称如下: 1) YD/T 2542-2013 电信互联网数据中心(IDC)总体技术要求2) YD/T 2441-2013 互联网数据中心技术及分级分类标准 3) YD/T 2442-2013 互联网数据中心资源占用、能效及排放技 术要求和评测方法 4) YD/T 2543-2013 电信互联网数据中心(IDC)的能耗测评方法 5)电信互联网数据中心(IDC)的运维管理技术要求 6)电信互联网数据中心(IDC)网络设备测试方法 7)电信互联网数据中心(IDC)网络设备技术要求 8)集装箱式电信互联网数据中心(IDC)总体技术要求 9)基于云计算的互联网数据中心网络互联技术要求

10)基于云计算的互联网数据中心安全指南 11)电信互联网数据中心(IDC)虚拟资源管理技术架构请注意本文件的某些内容可能涉及专利。本文件的发布机构不承担识别这些专利的责任。 本标准由中国通信标准化协会提出并归口。 本标准起草单位:中国移动通信集团公司、工业和信息化部电信研究院、中国联合网络通信集团有限公司、中国电信集团公司、中兴通讯股份有限公司、华为技术有限公司、百度在线网络技术(北京)有限公司、深圳市腾讯计算机系统有限公司、中金数据系统有限公司、阿里巴巴(中国)有限公司、上海宽带技术及应用工程研究中心。 本标准主要起草人:唐华斌、李洁、房秉毅、蔡永顺、李明栋、高新菊、陈尚义、谭杰夫、连雄伟、刘水旺、张敬、方行、李典林、高巍、郭亮、于涛。 电信互联网数据中心(IDC)的能耗测评方法 1 范围 本标准分析了互联网数据中心(以下简称数据中心)的能耗结构,定义数据中心的能效指标,提出数据中心能耗测量方法和能效数据发布要求。本标准主要规定了数据中心的直接消耗的电能,不包括油、水等其它能源或资源的消耗。 本标准适用于数据中心能耗的测量及能效的计算,用于了解数据中心能源效率状况,比较不同数据中心之间的能源效率及作为数据中心节能水平评级的依据。

数据中心能耗分析精编版

数据中心能耗实例分析 前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。 一、数据中心节能的必要性 近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。 随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为1.25。据最新报道Google公司现在已经有部分数据中心的PUE降低到1.11。而我们国内的PUE平均值基本在1.8~2.0,中小规模机房的PUE值更高,大都在2.5以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。 根据对国内数据中心的调查统计,对于未采用显著节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH左右。因此对于新建的大型数据中心,节能的必要性十分重要。 从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。 二、影响数据中心能耗的因素 数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对UPS而言,根据IT设备的实际负荷选择合理的UPS 容量,避免因UPS效率过低而产生较大的自身损耗。同时,选择更加节能的高频UPS、优化UPS拓扑结构都可起到节能的效果。 1、UPS对数据中心能耗的影响 UPS主机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作

数据中心机房节能分析

数据中心机房节能分析 杨根发中国移动通信集团江苏有限公司南京210029 为分析数据中心机房能耗的构成,笔者收集了南京3个数据中心机房近3年的用电数据。分析后发现,IT及网络通信设备的能耗占51%,空调制冷系统的能耗占24%,空调通风加湿系统的能耗占11%,照明能耗占2.5%,其他能耗占11.5%,因此数据中心机房的节能重点是IT及网络通信设备和机房空调。 1IT设备及网络通信设备的节能 能否解决好IT设备及网络通信设备的节能降耗问题,关键在于能否正确地选用IT 设备。衡量和比较各种IT设备是否具有最佳节能效果的标准是:在确保IT设备安全、可靠运行的前提下,设备的能耗比和IT设备所允许的工作温度、湿度范围是否具有优异的性能指标。 (1)设备能耗比 在选购服务器时,除了注意处理器、硬盘与内存等的规格外,还应关注电源供应器。 电源供应器产品除了标注电力的功率外,很少会标示电源的转换率。一般使用的电力都是交流电,要将交流电转换成直流电才能供给服务器内部各零组件使用。以一个400 W 的电源供应器为例,如果该供应器的转换效率为70%,即如果有400 W的交流电输入到电源供应器中,只有280 W的交流电会转成直流电供服务器应用,浪费了120 W的电力,所以在选购电源供应器时,必须注意转换效率的问题,转换效率越高的电源供应器越省电。 (2)IT设备所允许的工作温度、湿度范围 如果运营商选用对工作温度和湿度都很敏感的IT设备,势必会导致必须再花费大量的人力和物力去建立和维护耗能很大的空调保障系统,因此,设备采购时尽量选用具有较宽的工作温度和湿度范围的IT设备。根据运维经验,对于空调系统而言,在其他的运行工况条件保持不变的情况下,如果将空调的运行温度(回风口温度)提高1 ℃,就能将其运行效率提高3%左右,因此,就IT设备及网络通信设备的节能,重点要求在设备采购选型时选择节能型设备,从源头上最大限度地节约用电。 2 数据机房空调系统的节能 空调产生的能耗约占整个数据机房所需总功耗的35%左右。其中24%左右的功耗来源于空调的制冷系统,11%左右的功耗来源于空调的送风和回风系统。近年来,针对空调系统的节能,采取了以下措施,并取得良好的节能效果。 (1)冷凝器的温压双控雾化喷淋系统 冷凝器的温压双控雾化喷淋系统由带液晶蓝屏显示控制器的控制柜、压力传感器、温度传感器、SPAYERS雾化喷嘴、进水电磁阀及管路支架等部件构成。通过压力传感器和温度传感器,实时采集机房空调系统压力值和冷凝温度值。 每套TPDCS-1温压双控智能雾化喷淋系统能同时完成对4台单系统或两台双系统机房空调的压力值检测及喷淋控制。每台控制器可以提供4个独立的控制回路,每个回路可配置独立的压力传感器或温度传感器,分别采集机房空调的系统压力值或冷凝温度值。通过可实时调节的温度及压力的上下限值来控制电磁阀的开关以达到自动雾化喷淋的目的。系统所采用的智能液晶显示控制器可以配合压力、温度等线性变送器,对机房空调进行压力值、冷凝环境温度的测量、显示,通过对温度、压力限值的设定达到对雾化喷淋系统运行的控制。为保证试验的准确性、科学性和数据的可靠性,在近12个月的时间里,对A机房空调用电电度表进行用电统计和分析。当喷雾器关闭时,平均能耗为25.044 kW,当喷雾器开启时,平均能耗为22.475 kW,节能10.25%。以每台CM+40机房空调制冷设备系统耗电量为25 kW/h,每天工作16 h计算,每台空调用

数据中心绿色节能措施

1、绿色数据中心架构 1.1概述 绿色数据中心(Green Data Center)是指数据机房中的IT系统、机械、照明和电气等能取得最大化的能源效率和最小化的环境影响。 绿色数据中心是数据中心发展的必然。总的来说,我们可以从建筑节能、运营管理、能源效率等方面来衡量一个数据中心是否为“绿色”。绿色数据中心的“绿色”具体体现在整体的设计规划以及机房空调、UPS、服务器等IT设备、管理软件应用上,要具备节能环保、高可靠可用性和合理性。 机房建设是一个系统工程,计算机技术的迅猛发展,促进了机房工程建设,对机房的安全性、可用性、灵活性、机架化、节能性等方面提出了更高的要求,绿色数据中心的架设,综合体现在节能环保、高可靠可用性和合理性三个方面。

节能环保体现在环保材料的选择、节能设备的应用、IT运维系统的优化以 及避免数据中心过度的规划。如UPS效率的提高能有效降低对电力的需求,达到节能的目的。机房的密封、绝热、配风、气流组织这些方面如果设计合理将会降低空调的使用成本。进一步考虑系统的可用性、可扩展性,各系统的均衡性,结构体系的标准化,以及智能人性化管理,能降低整个数据中心的成本(TCO)。 在计算机机房工程中,包含的工程可以归纳为:土建工程、电气工程、空调工程、消防工程和弱电工程,示意图如下: 1.2数据中心规划设计节能措施 要做到技术先进、经济合理、安全适用、确保质量,选择合适的地点进行机房建设是机房基础建设的基本条件。作为未来机房的地点,须符合以下几项条件: ?机房最好建在大楼的二、三层 ?机房尽量避免设在建筑物用水楼层的下方 ?机房选在建筑物的背阴面,以减少太阳光的辐射所产生的热量 ?排烟口设在机房的上方,排废气口设在机房的下方 ?主机房区域的主体结构应采用大开间大跨度的拄网

相关文档
最新文档