数据中心节能现状分析

数据中心节能现状分析
数据中心节能现状分析

数据中心节能现状分析

随着移动互联网、物联网、云计算等数据业务需求的爆炸式增长及IT 技术的迅速发展,作为信息的重要载体,数据中心迎来一波新的建设浪潮在电子信息及制造技术的飞速提升的推动下,数据中心机房的设备密集度大大提高。然而由于能效监控管理的不完善,设备的不够智能化及缺乏联动协同等原因,数据中心的能耗问题也变得越来越无法忽视:现有的数据中心整体耗电巨大,发热量集中,机房局部过热现象增多,机房内单位面积空调冷负荷急剧增加,由此引来的主设备运行故障和能耗逐年上升,甚至成为了制约行业发展的一大瓶颈。

为了有效开展数据中心节能工作,首先来了解一下数据中心能源利用的现状。

随着云计算的发展,数据中心的建设呈现向大型化发展的趋势。超过100个机架的数据中心比例逐年上升,2016年预计达到61%.而大型数据中心的电力消耗是相当惊人,比如对一个建设规模为2000个机架的数据中心来说,按照每个机架功率平均3kW计算,2000个机架最终负荷为3kW*2000=6000kW,每个小时耗电6000度,全年电力耗能为:6000kW*24小时/天*365天=52560000kWh,按照1元/KWh计算,全年的电费5256万元,加上数据中心的空调、新风、照明、其他电力能耗,对一个PUE为2的数据中心而言,电费为1.05亿元。

另根据美国斯坦福大学Jonathan Koomey教授的一项调查显示,2010年全球数据中心电力消耗为2355亿度,约占全球电力消耗的1.3%.而在美国,这一比例更高,美国环境保护署的报告显示,2011年数据中心能源消耗占到了美国电网总量的2%,并且还将呈现每五年翻一番态势。中国的数据中心能耗也高速增长,显著高于世界的平均水平,据ICTresearch统计,2012我国数据中心能耗高达664.5亿度,占当年全国工业用电量的1.8%.根据预测,到2015年我国数据中心能耗预计高达1000亿度,相当于整个三峡水电站一年的发电量。

另一方面,数据中心能源效率普遍低下,能源浪费巨大,据工信部统计,目前,中国的数据中心的平均PUE值在2.2~3.0之间,而实际能耗可能远远高于这一数字。对企业而言,数据中心电费已成为很大一笔开支,大幅侵蚀企业的经营利润。如中国联通2012年营业收入407亿美元,利润仅为12亿美元,但其电费开支却高达17亿美元。

数据中心巨大的能源消耗是促使人们研究其能源利用效率的主要推动力,而讽刺的是对于全球数据中心的实际能源消耗量,至今还没有任何有信服力的统计结果。造成这种现象的原因很多:一方面,数据中心发展仍在上升期,数量及设备性能均存在着不稳定性,这在客观上为统计工作带来了困难;另一方面大部分数据中心运行管理人员将数据中心运行数据视

为一种私有资源,不愿意公开,主观上为统计工作设置了障碍。

数据中心能耗的研究从研究角度的不同可以分为两类,一类是从宏观上研究,力求获得数据中心总体的耗能情况。主要是采用一种间接估算的方法来研究全球服务器的能耗总量。它主要依据全球服务器消费及运行信息。将服务器按其价格分为三类,通过市场调查分析出各类服务器的历史安装数、制造厂家出货数及报废的台数。在每类服务器中选取一个最具代表性的典型服务器来测量其能耗数据,再将测得的各典型服务器全年能耗乘以每一类服务器的实际运行台数则可以得到全球服务器总能耗估计值。这类研究可以在未来的发展方向为进一步提高估算的准确性及考虑数据中心其它部分能耗(其他IT设备及制冷等辅助设备的能耗)的统计,并从单纯统计转变为对未来能耗的预测。

另一类是以特定的数据中心作为研究对象,通过对个体的研究以期反映出总体的特点,这一类研究的进一步发展一方面依赖于测量仪器的发展(这一点对于电源供应不独立的数据中心来说尤为重要),另一方面也依赖于所研究的数据中心数量的增加和每个数据中心历年数据的累积,将数据以数据库的形式建立起来以供业内人士的进一步研究。

由于现在仍没有所谓的标准数据中心的概念,数据中心配置变化很大,这使得以往用来评价建筑能耗效率的单位面积能耗量这个参数失去了应有的评判意义,因此需要一个新的指标来评价数据中心的能耗效率。

数据中心的能效的研究

数据中心按其功能可划分成如下几个模块:IT设备、电源系统、制冷系统。这几个模块实质分属于不同的专业,而互相之间相互影响,这也一个侧面显示了数据中心能耗的多学科复杂性。

IT设备能耗是数据中心能耗的重要组成部分,由于IT设备能耗与其他部分能耗的关系(如果IT设备能耗减少1W,由此带来的其他辅助部分的能耗也会相应的减少1.8W-2.5W),提高IT设备能效对于数据中心节能来说有着非常重大的意义。

目前数据中心IT设备运行中存在的主要问题是低负荷率导致的低能效,数据中心所处理的数据量往往浮动较大,很多时间设备都处在较低的工作负荷下,能源利用下降带来的能源浪费非常可观。

一般来说,数据中心电源系统包括:外电引入、变压器、发电机、电动机、交流不间断电源系统、直流不间断电源系统、照明系统及输配电线路等。由于数据中心功率密度的提高,所消耗的电功率增加,在电力各环节能量损耗亦随之增大,因此,电源系统各环节均需采取节能措施。

一、数据中心外电、变压器、发电机及电动机等环节的现状见下表:

二、数据中心照明及输配电线路环节的现状见下表:

三、交、直流不间断电源系统节能现状:

1. 传统交流不间断电源(塔式UPS)系统应用现状

当前,数据中心主设备一般要求交流电源输入,多采用传统的交流UPS 系统供电模式,即:UPS 系统将交流市电整流逆变后,为数据主设备提供220/380V 的交流不间断电源。其应用现状总结如下:

(1)传统UPS 系统多采用N+1 配置,等级较高的数据中心机房采用2(N+1)配置。

(2)部分在网的早期UPS 主机采用6 脉冲整流,近年来基本都采用12 脉冲整流。

(3)为了限制UPS 系统产生的谐波,部分UPS 系统配置了有源滤波器。

(4)蓄电池后备时间大多按单机满载30 分钟配置,有的数据中心配置达到了单机满载

1 小时。

2. 传统交流不间断电源系统存在的问题

随着数据中心高能耗问题的凸显以及对设备运行可靠性要求的不断提高,传统交流UPS 供电模式存在以下一些不足:

(1)采用了冗余并机技术,无论是N+1 还是2(N+1)系统,在正常运行时,UPS 主机的负载率均较低,再考虑到系统配置容量较实际偏大,使得系统的负载率更低,未在最佳效率点附近运行,系统损耗较大。经调查,很多大型数据中心机房的UPS 系统单机负载率一般在10%至30%之间,大多数只有20%左右,在发展过程中的数据中心机房UPS 单机负载率甚至更低,单机负载率10%不到的也占很大部分。

(2)目前仍有采用6 脉冲整流的UPS 在网运行,且没有采取相应的谐波处理措施,导致系统额外附加功率损耗大。部分UPS 系统虽然配置了谐波过滤器用于谐波治理,但治理后实际运行情况没有进行相应跟踪,治理效果无法保证。

(3)交流UPS 系统的后备蓄电池需经过UPS 逆变后才能供给负载,一旦UPS 本身出故障,仍会造成负载停电。

目前被大部分数据中心所采用的制冷系统如下图所示:

由于现有制冷系统的设定参数不够完善、空调系统的气流组织不够合理、自然冷源的利用不够充分及制冷系统监控系统的落后,导致制冷系统的能耗成为了数据中心能耗中最重要的一部分。

中国数据中心节能政策分析

国务院于2009年通过电子信息产业调整振兴规划,明确指出加大第三代移动通信产业新跨越、计算机提升和下一代互联网应用、软件及信息服务培育等领域的投资。北京、上海和广东等地区在信息基础建设、推动企业信息化建设等方面都加大力度,为数据中心业务快速发展提供了良好的宏观环境。随着云计算、物联网、大数据等的兴起,数据中心发展迅猛。

2011年出台的“十二五”规划对全面提高信息化水平提出了明确要求,强调推动信息化和工业化深度融合,加快经济社会各领域信息化,并明确指出“培育和发展战略新兴产业”,大力发展“新一代信息技术产业”。数据中心作为行业信息化的重要载体,提供信息数据存储和信息系统运行平台支撑,是推进新一代信息技术产业发展的关键资源,信息化产业的发展将极大地促进数据中心的市场需求。此外,信息技术产业网络化、平台化、服务化的趋势愈加明显,对大规模、高性能的数据中心需求愈加迫切,也推动了数据中心建设与服务需求的大幅增加。数据中心领域的技术创新与节能工作刻不容缓,《工业节能"十二五"规划》中明确指出,到2015年,数据中心PUE值需下降8%。数据中心技术创新及运维水平的整体提高将

为整个社会的发展带来重要意义。

2013年初,《工业和信息化部、发展改革委、国土资源部、电监会、能源局:关于数据中心建设布局的指导意见》(工信部联通〔2013〕13号),促进数据中心选址统筹考虑资源和环境因素,积极稳妥引入虚拟化、海量数据存储等云计算新技术,推进资源集约利用,提升节能减排水平;出台适应新一代绿色数据中心要求的相关标准,优化机房的冷热气流布局,采用精确送风、热源快速冷却等措施,从机房建设、主设备选型等方面降低运营成本,确保新建大型数据中心的PUE值达到1.5以下,力争改造后数据中心的PUE值下降到2以下。

2013年5月发布的通信行业标准中含有IDC相关标准共4项,包括:YD/T2542-2013《电信互联网数据中心(IDC)总体技术要求》、YD/T2543-2013《电信互联网数据中心(IDC)的能耗测评方法》、YD/T2441-2013《互联网数据中心技术及分级分类标准》、

YD/T2442-2013《互联网数据中心资源占用、能效及排放技术要求和评测方法》。

YD/T2542-2013规定了因特网数据中心的系统组成,以及服务、资源、网络、机房设施、管理和安全等六个子系统的功能要求,并对因特网数据中心网络与信息安全、编址、服务质量和绿色节能等方面提出了要求。适用于因特网数据中心的规划、设计、建设、运维和评估。YD/T2543-2013分析了因特网数据中心的能耗结构,定义了数据中心的能效指标,提出数据中心能耗测量方法和能效数据发布要求。该技术报告主要关注数据中心的直接消耗的电能,不包括油、水等其它能源或资源的消耗,适用于数据中心能耗的测量及能效的计算,用于了解数据中心能源效率状况,比较不同数据中心之间的能源效率及作为数据中心节能水平评级的依据。

通过上述分析我们可以看到数据中心能源消耗巨大和能源利用效率低下的现状,揭示了数据中心行业存在着巨大的节能空间,绿色节能自然而然也就成为了当前和未来数据中心建设的一个主流需求,而数据中心能效的研究目前各专业之间交叉较少,呈现一种各自为政的局面,也需要一个跨专业的组织来统一协调各专业的研究工作。利用国家特提供的多项利好政策,更加系统的研究数据中心能效体系,将对整个国家节能事业的发展做出巨大的贡献。

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

数据中心节能方案分析

数据中心节能方案分析(总7 页) -CAL-FENGHAI.-(YICAI)-Company One1 -CAL-本页仅作为文档封面,使用请直接删除

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。

数据中心八大节能八个步骤

数据中心八大节能八个步骤 现有的节能技术大都没有顾及电力需求增长的主要因素,只考虑如何降低整体能耗成本。企业为数据中心节省能源同时提高效率,其实还有更有效的办法。只要实现高效存储数据,减少机器及磁盘数量,就能解决急速增长的能源消耗问题。这个策略不仅可以减少系统的复杂性,降低成本,还可以改善网络效率和性能表现,从而对新的业务需求能做出更好的反应。 1. 整合服务器和存储系统 服务器本身已消耗了数据中心的一半能源,而存储系统是另一大能源消耗者。事实上,窗口数据的大幅增长,导致了窗口档案服务器和直接附加存储系统的数目急增。因此,只需设立一个存储网络,整合服务器和存储系统,减少设备数量,数据中心的可用能源就能迅速增加,从而提高能源效益。 2. 选用高容量磁盘驱动器 典型的SATA磁盘驱动器,与相同容量的光纤通道(Fibre Channel) 磁盘驱动器相比,可以节省大约一半的能源。同时,它们可以提供最高的磁盘驱动器可用存储密度,进一步降低能源消耗。一些具有磁盘修复及数据保护技术的SATA磁盘正日趋流行,成为很多企业应用的理想选择。 3. 减少磁盘驱动器数量,防止磁盘故障 SATA磁盘驱动器的数据存储量比光纤通道主磁盘驱动器多,但我们不能因此而忽略了数据可靠性。当前流行的双区间(Dual-parity) RAID-DP,能够提供更高的存储利用率和错误容忍度,可同时修复两个故障磁盘驱动器的数据。 4. 将数据转移到更高效的存储系统 为确保最有效地使用存储资源,可以把数据转移到次存储系统以减低主存储的负荷。一个完善的信息服务器能自动把存取率较低的数据,自动由主存储器转移到存储效益较高的次存储系统去。 5. 提高利用率 据业内估计,存储利用率只有25%-40%,即大约有60%-75% 的存储容量还没有被使用,却在不停地消耗能源。市场上有些方案能有效解决这个问题,通过共享存储,让所有磁盘都可以存取数据,平均存储利用率可高达60%。 6. 单方案多应用 只要掌握了数据备份的窍门,就能大幅节省存储空间。第一,只存储变更的数据。第二,用数据备份实现多个不同应用,以降低对特定存储系统的依赖,同时将后备系统用于验证及异步灾难恢复,减少特定存储系统的数量,节省更多能源。第三,重复数据删除技术(Deduplication) 可以避免对存储于主磁盘阵列的多余数据进行重复备份,缓解增加次存储容量的需求。

数据中心机房节能简析

数据中心机房节能简析 贾骏 吕捷 王众彪 工业和信息化部电信研究院 邮电工业产品质量监督检验中心 摘要:本文阐述了数据中心机房的主要能耗分布情况,并从数据设备、电源系统、空调系统、机房气流组织几个方面介绍了机房降耗的主要方式。 关键词:数据中心 UPS 气流组织 1、数据中心机房概述 数据中心是为集中式收集、存储、处理和发送数据的设备提供运行维护的设施以及相关的服务体系。数据中心提供的主要业务包括主机托管、资源出租、系统维护、管理服务,以及其他支撑、运行服务等。 本文所提到的数据中心机房,是指承载数据中心业务的基础设施,一般由核心业务机房、UPS机房、电池室、空调机房、柴油发电机房等构成。 我国数据中心市场发展迅速,根据赛迪顾问年度报告,2010年中国IDC市场规模达到102.2亿元。我国2005年以来数据中心市场发展的趋势如图1所示。 图1 我国IDC市场发展趋势 2、数据中心机房能耗分布 2010年我国数据中心资源投入占总投入将近30%,维护成本占总投入近15%。[1]2010年我国数据中心运营成本分布如图2所示。

图2 2010年中国IDC公司最高运营成本分析 数据中心机房能耗主要分为服务器/网络设备能耗、制冷能耗、供电系统能耗、照明和其他能耗。根据EYP Mission Critical Facilities所提供的数据,50%的数据中心用电量是被服务器/网络设备所消耗。制冷系统是数据中心内第二大能耗系统,其耗电量占数据中心总耗电量的37%。供电系统占10%,照明和其他占3%。[2] 3、数据设备降耗 数据设备是承载数据中心的业务核心设备,同时也是耗电量所占比例最大的设备。根据亚马逊JamesHamilton的研究,数据中心服务器硬件所消耗的电力的费用约占57%。针对不同规模的数据中心,该费用比例是不同的。2010年我国数据中心规模分布如图3所示。 图3 2010年中国IDC公司的机房服务器数量 服务器是数据中心最为常见的设备。使用高效低能耗的服务器是数据设备降耗的关键所在。Standard Performance Evaluation Corporation(SPEC) 是一个全球性的、权威的第三方应用性能测试组织,它制定了一系列的规范来评定服务器应用性能。可以根据SPEC的测试值评定服务器的效能/能耗,以此作为选购服务器的参考。另一个评定标准是能源之星的服务器标准,符合能源之星标准的服务器要比旧式服务器多出30%的能源效率。 对于网络设备,可以使用TEEER值以及ECR/EER性能能耗比评估法进行节能分析。 4、电源系统降耗

数据中心能耗分析范文

数据中心能耗实例分析 前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。 一、数据中心节能的必要性 近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。 随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为1.25。据最新报道Google公司现在已经有部分数据中心的PUE降低到1.11。而我们国内的PUE平均值基本在1.8~2.0,中小规模机房的PUE值更高,大都在2.5以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。 根据对国内数据中心的调查统计,对于未采用显著节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH左右。因此对于新建的大型数据中心,节能的必要性十分重要。 从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。 二、影响数据中心能耗的因素 数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对UPS而言,根据IT设备的实际负荷选择合理的UPS 容量,避免因UPS效率过低而产生较大的自身损耗。同时,选择更加节能的高频UPS、优化UPS拓扑结构都可起到节能的效果。 1、UPS对数据中心能耗的影响 UPS主机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作

(完整版)数据机房专用空调能耗评估与分析

数据中心能耗指标 1. PUE PUE ( Power Usage Effectiveness,电能利用效率)是国内外数据中心普遍接受和采用的一 种衡量数据中心基础设施能效的综合指标,其计算公式为: PUE = P Total / P IT 其中,P Total 为数据中心总耗电,P IT 为数据中心中IT 设备耗电。 PUE 的实际含义,指的是计算在提供给数据中心的总电能中,有多少电能是真正应用到 IT 设备上。数据中心机房的PUE 值越大,则表示制冷和供电等数据中心配套基础设施所消耗的电能越大。2. pPUE pPUE(Partial Power Usage Effectiveness,局部PUE)是数据中心PUE概念的延伸,用于对数据中心的局部区域或设备的能效进行评估和分析。在采用pPUE 指标进行数据中心能效评测时,首先根据需要从数据中心中划分出不同的分区。其计算公式为: pPUE1= (N1+I1) / I1 其中, N1+I1 为1 区的总能耗, I1 为1 区的IT 设备能耗。 局部PUE 用于反映数据中心的部分设备或区域的能效情况,其数值可能大于或小于整体 PUE,要提高整个数据中心的能源效率,一般要首先提升pPUE值较大的部分区域的能效。 3. CLF/PLF CLF( Cooling Load Factor)称为制冷负载系数,PLF( Power Load Factor)称为供电负载系数)。CLF 定义为数据中心中制冷设备耗电与IT 设备耗电的比值;PLF 定义为数据中心中供配电系统耗电与IT 设备耗电的比值。 CLF 和PLF 是PUE 的补充和深化,通过分别计算这两个指标,可以进一步深入分析制冷系统和供配电系统的能源效率。 4. RER RER( Renewable Energy Ratio,可再生能源利用率)是用于衡量数据中心利用可再生能源的情况,以促进太阳能、风能、水能等可再生,无碳排放或极少碳排放的能源利用的指标。 一般情况下, RER 是指在自然界中可以循环再生的能源, 主要包括太阳能、风能、水能、生物质能、地热能和海洋能等。 专用空调系统能耗评估与分析 冷源的效率 能耗分析:

数据中心节能改造的7种解决方案图文【最新版】

数据中心节能改造的7种解决方案图文 点评网()报道:随着计算机网络业务量的迅速增长、服务器数量的增加,机房的面积及规模也在不断扩大,数据中心的能耗成本也迅速增加,并有赶超硬件成本的趋势。据权威机构调查显示,我国每年用于服务器的电源和冷却的总开支超过了20亿美元。对于已经建成投产的数据中心,如何实现有效的节能改造,需要从多方面考虑。本篇介绍了数据中心基础设施节能改造的几种主要解决方法。 一、设计一套机房整体监控系统 图IT设备负载变化曲线 从机房负荷和空调冷量配置来看,机房一般设计为N+X的安全运行模式,但从整个机房IT设备布局来看,由于机房面积较大,考虑其循环风量及减少机房局部温度死角等问题,及负载设备功耗的动态变化,精密空调群无法做到人为控制按照需求运行,机房发热量变化

无规律可以遵循,所有室内风机全速运行,压缩机由每台空调独自按照自己的需求进行控制,此种运行模式从运行费用角度来说是不经济节能的。如果强制空调群中的冗余设备进行关机运行,由于机房气流组织及温度变化规律很难掌握,人为控制空调的开机与关机也很难做到机房安全,因此可能存在局部温度不可控的现象。因此,机房精密空调群控対机房节能起到至关重要的意义。 机房专用空调群控节能的思路是:在保障机房设备正常运行的前提下,通过减少冗余空调设备的运行时间,来降低整个机房的能耗,实现空调系统的备份/轮循功能、层叠功能、避免竞争运行功能、延时自启动功能。 结合曙光自适应集群功率与能耗监控系统,进行精密空调集群集中管理,管理软件根据CPU占有率计算每一排的服务器功耗,根据负载分布情况及精密空调分布情况精确控制相应位置空调的工作状态,其中主要包括压缩机的启停和空调室内机的风扇启停。精密空调通过RS485网络与协议转换器通信,协议转换器通过以太网与管理节点协同工作,这样使不同厂家的精密空调(具有监控功能)能够通过曙光标准协议接口与管理节点进行数据交互每个服务器机柜内安装两个无线温湿度探头,每排机柜构成一个网络,通过物联网的组网方式形成一个温湿度监控网络,并通过以太网将数据上传至管理节点,形成双层监控网络,在监测到服务器到温的时候,开启机房空调,在节能的

数据中心节能方案分析

数据中心节能方案 分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其它专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,当前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,而且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆

放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,可是她们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工

数据中心电源解决方案及选型

数据中心电源解决方案及选型 发表时间:2019-11-06T11:30:58.777Z 来源:《基层建设》2019年第23期作者:苏建伟 [导读] 摘要:随着互联网应用技术的迅速发展,作为互联网载体的数据中心建设规模日益变大。 中国通信建设集团设计院有限公司第四分公司河南郑州 450052 摘要:随着互联网应用技术的迅速发展,作为互联网载体的数据中心建设规模日益变大。巨大的用电容量需求给数据中心的建设和运营带来了空前的压力。文章根据数据中心常用的供电解决方案提出了三种电源产品解决方案,并根据安全可靠、节能环保、管理维护、建设成本四个方面提出的电源产品解决方案进行对比和分析,作为数据中心建设的配套电源产品选型参考。 关键词:数据中心;电源系统;节能环保 近年来,随着移动互联网时代的到来,基于互联网技术提供的各种服务已融人到人类的社会生活中,数据储存容量需求高速发展。作为互联网应用服务载体的数据中心,其建设需求也在同步不断增加。近几年来,随着互联网服务、电子商务行业的高速发展,我国的IT服务巨头B.A.T(百度、阿里、腾讯)、三大运营商(移动、联通、电信)都投人了大量的资金用于数据中心的建设。截止目前,全国已经建成了规模不一但数量庞大的数据中心。各大数据中心运营商为了节约成本、便于管理、形成规模化效益,数据中心的建设规模逐渐变得越来越大,同时,巨大的用电容量也给数据中心的建设和运营都带来了巨大的成本压力。如何合理配置资源,提高数据中心供电的安全性,降低运营成本,成为各大数据中心运营商在机房建设中重点考虑的因数。 一、数据中心对供电的要求 主要应包括以下几方面。 1.1安全可靠 一般要求电源供电系统的可用度A!99.999M。因此,必须合理进行配置,达到系统供电安全最优化。 1.2节能环保 在能源紧缺、重视环保的今天,“绿色、节能、高效”是新一代数据中心建设的主流标准。不间断电源(UPS)在绿色、节能、高效方面的表现,主要体现在输人功率因数、输人电流谐波以及整机效率等方面。 1.3可维护性 不间断电源(UPS)供电系统应当具备维护方便,便于管理的设计需求。在节省系统的维护成本的同时,更为重要的是可以尽量避免因人为维护或者管理不当,而引发的系统故障。 1.4建设成本 从数据中心容量需求在应用过程中会逐步增大的情况,要求电源系统配置可扩容设计。这样能有效地控制系统建设初期投资费用,同时,又能使UPS供电系统在数据中心的建设过程中,始终保持安全高效的工作状态,提高了系统的性价比。因此,数据中心供电系统的合理设计,并非一味追求某一项指标的最优化,而是应该根据实际应用的需求,在保证安全可靠、节能环保、运维方便、成本合理这些要点中寻求一个平衡点,提供一个节能环保,安全可靠,经济适用的供电系统解决方案。 二、数据中心用电特点 2.1保证的目标。 在数据中心配电系统中除了正常配电系统中采用的双回路独立电源供电之外,还在数据中心配备事故备用柴油发电机、大容量UPS 等。同时在数据中心配电系统故障处理机制方面,会考虑供电电源失电、母线故障、开关跳闸和开关拒动等一系列非正常情况下如何最大限度地满足设备用电可靠性的要求。 2.2数据中心配电系统较一般建筑配电系统复杂。 与一般建筑配电系统相比,数据中心配电系统其结构更为复杂,对配电管理的要求更加严格。复杂性表现在电源输入及其控制策略上,一般建筑配电多采用双回路一主一备供电,其控制策略为备用电源自动投切。而数据中心配电系统除双回路单独供电之外,自身还配备至少满足全负荷设备容量的柴油发电机,在不同失电故障场景发生时,通过供电策略的改变实现数据中心设备的持续供电。 三、数据中心供配电系统解决方案分析 数据中心在运行的时候,往往是二十四小时不间断运行,其本身具有用电量比较大和可靠性较高以及对电源品质要求比较高的现象,其中比较常见的是电力系统在具体运行的过程中,对电能实施发、输、配、用中的配和用等内容,促使这些方面能够在电力系统正常运行的基础上具体实施。在供配电系统中,功率通常情况下是单向流动的,也就是根据电源端向用户端的方向流动,通过一定的分配手段的基础上,使得供配电的目的得以实现,将电力系统中的电能改变成用户所使用的用电设备可以利用的电能。根据当前的数据而言,其电压等级主要处于35KV或以下。因此供配电系统在设计处理的时候,需要明确其电能负荷的性质和周围区域电量供应的具体情况等。 3.1热备份串联供电的相关方案 串联备份技术和其他技术相对比而言,是比较成熟的,其发展的阶段是比较早的,使用范围相对广泛,其中多种关于UPS技术的相关资料中串联也可称为热备份,多数人都将其称为串联。供电方案中串联的UPS是比较完整的,其也具有自己的旁路在线类型的UPS单机。这些单机的连接媒介仅仅为电源线,没有其他信号连接。通常情况下主机进行全面供电,从机基本上没有对其加以负载处理。 这一方案在具体应用的时候,其优点是结构相对简单,在实施安装处理的时候,比较快捷,相对价格也合理,多个不同公司的UPS能够串联使用。这一方案的具体实施缺陷是需要不间断进行负载用电的扩容处理,就必须持续带电工作,而这一过程中的危险程度也会增加。 3.2直接并机供电方案 直接并机供电方案的形式主要是将多个同类型型号和功率的“不间断电源”在并机柜或并机板等基础上,将输出端连接在一起而形成的。这一方案的主要功能是多台机器对负载功率共同承担处理,其中比较显著的原理是在一般情况下,多个UPS都具有逆变器的输出分担负载及电流,在其中任何一个“不间断电源”出现问题的时候,其余的都会再次对全面的负载进行承担,在促使并联冗余实现的时候,其基础始终是对以下相关内容有效处理。 每个UPS逆变器所输出的波形之间的相位和频率等方面需要是相同的。UPS逆变器在输出电压的时候,这些电压也需要保持一致。每个

基于绿色数据中心节能建设分析

基于绿色数据中心节能建设分析 发表时间:2016-11-09T15:21:54.870Z 来源:《基层建设》2016年16期作者:刘宝新 [导读] 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 北京国信网通科技有限公司北京市 100085 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 关键词:绿色;数据中心;节能建设 1绿色数据中心节能指标分析 目前,衡量数据中心是否绿色的主要量化指标是采用绿色网格组织(GreenGrid)制定的能效比指标,又称为PUE(PowerUsageEfficiency)。 PUE=[TotalFacilityοfPower(设备总能耗)ITEquipmentPower(IT设备总能耗)×100%]=1+[空调能耗IT设备能耗]+[通风能耗IT设备能耗]+[配电能耗IT设备能耗]+[UPS能耗IT设备能耗]+[照明能耗IT设备能耗]+…… PUE反映了数据中心总能耗和计算、存储、网络等IT设备能耗的比值。PUE值大于1,其数值越小,说明能源利用率越高。目前,国外先进的数据中心的PUE值能达到1.5~1.8,而我国的数据中心的PUE值为2~3,说明仅有33%~50%的电能用在了IT设备运行上,50%~66%的电能消耗在空调、配电等设备上。 2建设绿色数据中心应遵循的原则 2.1突出绿色环保,科学拟制方案:绿色数据中心建设要结合数据存储使用需求,根据信息采集、传输、处理和分发的具体使用需求,以及IT设备的具体特点,围绕绿色环保对数据中心的供电方式、UPS电源容量、制冷方式、照明、风路、水路、电路、管网、主要IT设备的选型等方面进行综合考虑,进行统一规划设计,并逐项细化,寻求最高效益。 2.2突出节能高效,合理配置资源:首先要突出保障重点。根据实际和存放数据的重要程度,可将数据中心划分为高密区、中密区和低密区,重点对高密区的电源、通风、制冷设备采取多种技术措施,制订多种配置应用方案。其次要便于系统扩容。根据信息化建设的发展特点,基础设施需求会呈现非线性爆炸性增长趋势,所以在数据中心的规划建设中,要充分考虑选址合理、系统容量易于扩展。 2.3突出稳定可靠,提高重组能力:不能稳定可靠运行的数据中心是无用的数据中心,因此设计数据中心一定要在提高其重组再生能力方面下功夫。硬件设施方面,在电源引接上,要有两个以上不同方向的路由线路;在UPS配置上,要采取多组互联方式,保证每个PDU单元、每个机柜的接电排、每个设备的电源输入端子上,都有两路以上独立UPS电源引接;在风机、制冷及配线上要进行N+1备份,对重要的保障区域要实现1+1备份。软件配置方面,运用云计算及虚拟化技术,将故障的网络、计算、存储等设备的应用随时自动平滑迁移到其他网络、计算、存储设备上,保证业务的不间断运行,提高系统重组能力。 2.4突出安全智能,提高管控水平:在外围监控上,要设立安全隔离区,建立由电子围栏、红外探测、夜视监控、自动报警、门禁系统等组织的综合外围监控系统,以提高安保等级。在区域设置上,区分维护区、设备区、控制区,将数据中心规划为不同的安全防护等级,采取多种身份认证措施和不同的防护手段,对核心控制区要设置以生物特征识别为基础的身份认证系统,严格人员进出管理;对核心设备区要设置气体消防,保证设备安全。在防电磁泄露上,对电源线、信号线等要采用屏蔽电缆,避雷装置和电缆屏蔽层应接地,对核心设备区要加装电磁屏蔽设施,保证设备安全可靠;在智能管理上,对数据中心的周边安全、内部温(湿)度等环境参数,对风、机、电、水相关配套系统运行指标,对计算、存储、网络设备负载运行状态,要能做到实时感知、直观呈现、智能处理,提高运维管理效率。 3建设绿色数据中心应关注的问题 3.1减少IT设备能耗:根据能耗结构和能耗路径图,IT设备每减少能耗1W,数据中心将整体减少能耗2.84W。在保证效率的前提下,降低IT设备的能耗是一个最有效的方法。从实现技术上看,主要有两种方法:一是采用高效低耗的核心部件。受加工工艺和技术水平的影响,不同供应商提供的CPU等核心处理器在能耗上存在20%~40%的差异,要尽量采用节能产品。二是采用工作效率较高的新型服务器,如用刀片式服务器取代机架式或塔式服务器,设备可节能20%~30%。 3.2采用虚拟化技术:采用虚拟化技术对现有服务器、存储设备进行整合,在不增加硬件投入成本的情况下,将所有的服务器、存储设备虚拟成一个公用的资源池,统一灵活调配,提供服务,在提高性能的同时减少物理服务器、存储设备的数量,减少电力、制冷和场地成本。在服务器方面,传统服务器平均CPU利用率一般为7%~15%,经虚拟化整合后,CPU利用率能提高到60%~70%,还能实现虚拟服务自动迁移、数据存储整体读写速率、系统鲁棒性和高可用性的提高。 4.3提高制冷效率:机房空调对数据中心的安全稳定运行起保障作用,空调耗电量在数据中心的总耗能中约占50%,已经超过了IT设备本身的耗电成本。提高制冷效率,主要从两个方面入手:①使用精密空调替代普通空调。同功率的普通空调和精密空调产生同样的制冷量,前者耗电量是后者的两倍。②规划好机房内冷热气流通道,避免交叉。传统的机房空调直接对机柜吹风或采用下送风方式,送(回)风路径不合理,应采用冷热气流通道隔离技术,科学设计机房各要素布局,缩短冷气流的运行距离,实现精确定点的冷能量投送,以减小能量消耗,提高空调制冷效率。 3.4减少供电模式转换:交流直流转换过程中的热损耗是数据中心隐性耗电的“大户”,能耗高达20%~30%。在传统供电方式下,为UPS 充电,要将外部交流电源转换为直流为电池充电;使用UPS电源时,要将UPS电池直流转换为交流,为IT设备电源模块供电;IT设备工作时,由于CPU等耗电设备是直流供电,IT设备电源模块要将外部交流转换为直流。在条件允许的情况下,尽量使用直流供电的服务器,通过直流电源供电方式,减少交流和直流电源逆变的次数,以提高电能应用效率。 3.5加强运维管理:通过精确智能的运维管理工具,实时监控和分析各种IT设备负载情况,及时发现、处理、维修、停用异常的IT设

高效数据中心的六大绿色节能措施

高效数据中心的六大绿色节能措施 和一两年前相比,很多数据中心的运营者们如今也并未热衷于“绿色”这个词。这当然不是说他们已经抛弃了旨在提升能源效率,更好地利用IT资源的各种项目,因为这些项目既可以削减运营成本,又能减少对环境的影响。 市场咨询公司451集团在考察了被大批组织和机构所接受的可降低数据中心运营成本的六种绿色实践之后,发布了一份内容全面的报告:《高效节能的数据中心实践》。其中的一些实践做法,如进行数据中心的全面规划,寻找可替代传统制冷系统的方案等可能早已被大家所熟知;其他做法,如采用直流供电和预制件数据中心等,则很少有人谈及,或者被认为不可持续而不予理会。 在计划升级其设施时,数据中心的运营者们应该好好考虑或者重新考虑一下这些趋势。当然,并非所有这些实践都适合每一个组织,但如果你不去看看,那你就有可能永远都不知道有这些实践做法存在。 实践1:采取综合的可提升整体效率的方法 数据中心运营者需要通过结合了集成技术和各种手段全面处理效率问题的方法,而不能孤立地去对待每个项目。这其实并不是什么开创性的概念:绿色网格组织从2008年成立以来就一直在提“通盘考虑”的口号。而这样做的最大好处之一就是可以促进各部门间,尤其是设施部门和IT 部门间的协同,确保所有的参与者在对数据中心进行升级改造时能够意见一致。举例来说,IT 部门订购了一个用于关键任务项目的高端服务器机柜,那么他只需要在机柜到达数据中心时打听一下是否有足够的电力或冷却能力支持这个机柜便可。 组织内的协作并未到此结束。为了努力减少能源浪费,很多企业部门之间如今已越来越开放,曾经是各部门最隐秘的东西也可以公开。这方面最有名的例子就是Facebook,利用其开放计算项目,该公司有关高效服务器、机柜和冷却设备的蓝图也都在开源。 实践2:更智能的冷却系统 数据中心运营者们正逐渐意识到,数据中心设施并非存放肉类的大冰柜,只需要适当制冷即可。虽说IT管理人员不希望设备因过热而失灵。但如果你花在IT上的每个美元都得分出50美分用于制冷的话——这正是很多传统数据中心的平均PUE比值——那几乎可以肯定你是在烧钱。 有好多种办法可以降低冷却成本,其中一些技术始终不被企业所接受,生怕会毁掉他们的宝贵硬件。这其中就包括液体冷却技术,该技术被认为会产生很多维护方面的问题,而且使用范围有限。但是来自绿色革命冷却公司的一种液体冷却方法采用了低成本、无污染的绝缘液体,据称其吸热能力是空气的1200倍。 至于空气冷却这种免费冷却方法则要比液体冷却更受欢迎。这个概念也很简单:只要把数据

数据中心能耗分析

数据中心能耗分析 Document serial number【UU89WT-UU98YT-UU8CB-UUUT-UUT108】

数据中心能耗实例分析前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。 一、数据中心节能的必要性 近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。 随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为。据最新报道Google公司现在已经有部分数据中心的PUE降低到。而我们国内的PUE平均值基本在~,中小规模机房的PUE值更高,大都在以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。

根据对国内数据中心的调查统计,对于未采用显着节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH左右。因此对于新建的大型数据中心,节能的必要性十分重要。 从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。 二、影响数据中心能耗的因素 数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对UPS而言,根据IT设备的实际负荷选择合理的UPS 容量,避免因UPS效率过低而产生较大的自身损耗。同时,选择更加节能的高频UPS、优化UPS拓扑结构都可起到节能的效果。 1、UPS对数据中心能耗的影响 UPS主机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作效率,可以为数据中心节省一大笔电费。下图为某大型UPS主机的效率曲线。从该曲线中可以看出,当UPS负荷超过30%时UPS的效率才接近90%。很多数据中心在投运初期IT负荷较少,在相当长的时间内负荷不足20%。在此情况下UPS的效率仅仅为80%左右,UPS的损耗非常大。因此,在UPS配置中尽量选择多机并联模式,避免大容量UPS单机运行模式。例如,可以用两台300kVA UPS并联运行的模式代替一台600kVA UPS单机运行模式。其优点在于IT负荷较少时只将一台300kVA UPS投入运行,另一台UPS不工作,待IT负荷增加后再投入运行。这种UPS配置方案及运行模式可以提高UPS效率,降低机房能耗。 2、供配电系统对数据中心能耗的影响

浅析数据中心空调节能技术

浅析数据中心空调节能技术 发表时间:2019-11-26T14:28:17.667Z 来源:《中国西部科技》2019年第24期作者:谢灯钢[导读] 随着经济和信息技术的快速发展,介绍了数据中心运行环境及空调系统的特点,分别从利用自然冷源、优化气流组织、采用新型末端、采用变频设备、智能化群控管理五个方面对数据中心空调节能进行分析,为实现绿色数据中心空调系统节能提供一定的参考和建议。 引言 随着电子信息技术的飞速发展,数据中心单机柜功率密度越来越高,从3kW、4kW、6kW,甚至发展到10kW以上,还可能更高,耗电巨大,发热量更加集中,机房局部过热现象增多,机房内单位面积空调冷负荷急剧增加,由此引来的主设备运行故障和能耗逐年上升,甚至成为了制约通信业务发展的一大瓶颈。目前国内调查数据显示:IT设备能耗约占总能耗的50%,空调能耗约占40%,供电能耗约占 10%。所以空调系统的节能是数据中心的节能核心,是降低数据中心能耗的重要途径,是数据中心节能最大潜力所在。 1绿色节能设计在数据中心规划中的应用概述 1.1绿色节能设计在数据中心规划中应用的目标 如何在确保数据中心中的数据高度安全和高度可靠的前提下,最大限度地减少数据中心建设和运行低效和无效投入,打造高效、安全、节能的数据中心,是绿色节能设计在数据中心规划中应用的主要目标。而为了保证这一目标的有效实现,就需要采用虚拟化的技术来对服务器的架构进行优化,在增加服务器运行效率的基础上,减少数据中心服务器的数量,降低数据中心的设备、系统能耗,使整个数据中心的系统的运行、维护和管理变得更加节能、高效。当然,除了对服务器进行设计规划以外,还要遵循模块化的设计理念,对机房空间、电源设备、制冷系统等进行绿色节能的规划考虑,使整个数据中心的绿色节能效益达到最大化。 1.2绿色节能设计在数据中心规划中应用的原则 绿色节能设计在数据中心规划中的应用是一项技术性、过程性和长期性的内容,除了要准确把握应用的目标以外,还要注重应用原则的遵循,以确保数据中心规划的科学性。 2数据中心环境条件 数据中心中IT设备均是处于全年不间断运行中,对于运行环境(温度、湿度和空气洁净度)要求非常严格。一般数据中心内温度保持在24℃左右,湿度控制在40%-60%范围内,洁净度等级要求比较高,《数据中心设计规范》GB50174-2017规定,A级和B级主机房的含尘浓度,在静态条件下测试,每升空气大于或者等于0.5μm的尘埃数应少于18000粒。 3数据中心空调的特点 数据中心空调不同于常规的舒适性空调,主要有以下几个特点:(1)热负荷强度高,设备散热量大,散湿量小。(2)显热比高。(3)大风量,小焓差。(4)恒温恒湿控制。(5)全年供冷运行。(6)可靠性高。 4数据中心的RAS指标 数据中心近年来在我国的发展和建设相当迅速,全国各地建成的不同规模和不同等级的数据机房也不计其数。数据中心的建设对于RAS要求非常高———可靠性(Reliability)、可用性(Availability)和可服务性(Serviceability)。由于IT设备空调制冷系统造成的宕机,会引起服务的局部瘫痪和中断。国外某调研机构曾有一组数字说明不同行业关键业务中断带来的金钱损失:大型数据中心的服务器宕机1min,平均会使运输业损失15万美元,银行业损失27万美元,通信业损失35万美元,制造业损失42万美元,证券业损失45万美元……这直接从经济效益的角度解释了稳定性和可靠性对数据中心多么的重要。数据中心为了达到RAS的高标准,配备的很多设备和线路(包括空调系统)都设计有冗余,而这不仅带来投资、占地的加大,也造成了技术实施、运行管理的复杂性。 5数据中心的能效指标 5.1能耗分析 目前,数据中心能耗考察指标PUE的概念已深入人心,但是如何根据项目本身特点,有效降低PUE,不同的数据中心项目的建设措施却是各有千秋。众所周知,数据中心PUE降低的关键在于空调能耗的降低,而如何经济有效地降低其能耗,研究和推广数据中心的绿色空调技术就显得十分重要。数据中心空调的特点:由于数据中心的发热量很大,且要求在特定一个允许的温湿度范围内长期连续运行,因此能适合其使用的空调系统要求可靠性高(一般设计都有N+1或N+2的冗余备机)、制冷量大、小温差和大风量。一般说来,大型数据中心的IT负荷从开始到满载也需要较长的时间(可能好几年)。由于受到室外全年气温变化的影响,以及IT负载的能耗和网络访问量或运行状态相关。比如,游戏服务器在早上的负载和能耗都比较低,但在晚上就比较高;视频服务器在遇到重大事件时的负载和能耗就比较高。数据中心虚拟化的发展,使得数据中心IT设备在不同时间和不同空间上的运行发热量都是变化的,因此数据中心的空调设计和运营,必须与之相适应。 5.2空调冷源系统形式 数据中心的常规空调冷源系统形式主要有:(1)风冷型机房空调。较适用于中、小型数据中心,以及严寒或寒冷地区或者缺水地区。(2)水冷型机房空调。较适用于非严寒或寒冷地区的大、中型数据中心,但不大适合缺水地区。(3)风冷/水冷的双冷源型精密空调。结合了水冷制冷效率高以及风冷无需担心结冻的风险,增强了地域的适应性,但也相应增加了设备投资及运行费用。(4)下送风上回风的IT机房空调气流组织形式;精密空调常规的送风方式有多种,典型的气流组织包括“下送风上回风”和“上送风下回风”。下送风上回风的方式有几方面明显的优势:下送风方式,可将强、弱电线缆在机架上方分层铺设,地板下不走线,仅作通风用途,既保障了机房防火的安全,又保障了冷风远程传送的顺畅;上送风下回风的气流组织不适用于高发热量IDC,相比之下制冷效率较低下。(5)水冷机房空调主机结合开放式冷却塔与板式换热器在过渡季节及冬季供冷。(6)闭式冷却塔供冷(严寒、寒冷地区循环接至采用防冻液)的机房空调系统。后面两种实际是较常见的,利用“水侧免费制冷”的一种方式(冷源系统仅循环水泵耗电)。当室外空气湿球温度在4℃以下时可以满足完全自然冷却(此时无需额外启动制冷设备高耗能的压缩机),在湿球温度4-10℃之间可是实现部分自然冷却。在北京,一年内平均有5个月左右可以实现完全自然冷却,有2个月左右可以实现部分自然冷却,节能效果会非常明显的。 结语 绿色节能设计应用到数据中心规划之中既是现代化数据中心建设中的一项基本要求,也是数据中心数据处理能力科学化发挥的前提和基础。在当前注重成本与效益相匹配的数据中心规划理念的影响下,除了要考虑实际的需要以外,还要从成本节约的方面入手探索更加绿色节能的设计措施,以优化数据中心的规划建设。

相关文档
最新文档