IDC设备节能降耗新技术

IDC设备节能降耗新技术
IDC设备节能降耗新技术

64 智能建筑与城市信息 2014年 第10期 总第215期

技术与应用

Technology and Application

【摘 要】 论文通过对IDC 各类设备能耗的占比分析,分析介绍IDC 数据中心网络设备、空调、电源等节能新技术及其应用前景,以及数据中心行业节能的典型案例。

【Abstract 】In this paper,analysis the energy consumption ratio of different types of IDC equipment,introduces a new energy-saving technology of IDC data center network equipment,about air conditioning, power supply,and analyzes its application prospect,finally introduces the classic case of data center in industry energy saving.【关键词】定制服务器;自然冷源;动态UPS

【Keywords 】 custom server ;natural cold source ;dynamic UPS

IDC 设备节能降耗新技术

杨军志

(江苏省邮电规划设计院有限责任公司)

A New Energy Saving Technology of IDC Equipment

YANG Jun-zhi

(Jiangsu Posts & Telecommunication Planning and Designing Institute Co.ltd )

1 IDC 能耗占比分析

从IDC 机房楼的角度来看,数据中心能耗主要由三个部分构成:数据通信设备、空调(制冷机房、空调末端系统)及电源(电力输配系统、交直流不间断电源)

,目前大多IDC 环比增加了81.8%,同比增加了15%。由此可见,参观人数对能源消耗也具有重要影响。

4 采取的节能技术

通过3.2小节的分析可知,上述因素对空调系统的能源消耗影响最大,因此,对于空调系统可采取如下节能技术。

1)加强冷、热源管路的保温。做好保温处理,不仅可以有效避免冷、热量的损耗,还可以避免制冷管道外表面出现结露现象,从而保证整个建筑的正常使用。

2)改善风机、泵类电机系统的调节方式,将变频器控制系统集成到电机系统中,从而使电机系统变频化、信息化。据变频改造后的统计分析可知,每台空调机组增加变频器后节电可达30%以上,从而实现了空调机组的节能高效运行。

3)对于风机、泵类电机系统,一定要做到机械负载同电机容量合理匹配。如果容量过小,电机系统运行时就会过载,导致温升过高而影响使用寿命;如果容量过大,则会使得电机系统长期低负荷运行,从而导致运行效率和功率因素很低,浪费能源。

5 结束语

当然,上述针对博物馆类公共建筑的影响因素分析以及所采取的空调系统的节能技术措施还不够全面和完善,仅起到抛砖引玉的作用。实际运行中,还需要不断摸索、不断总

【1】丰艳萍,武涌.节能运行监管——我国大型公共建筑节能管理的必然选择[J].暖通空调HV&AC ,2007,37(8):8?12.

【2】杨晓红,余建南.国家博物馆用电节能管理分析[J].智能建筑与城市信息,2013(12):59? 61.

【3】龚敏,吴璟,扈军.博物馆建筑耗能分析及节能改造措施研究[J].现代城市,2010,5(4):10?13.

【4】曹仲原.用电安全节能技术在博物馆中的应用及节电标准的研究[D].华北电力大学,2008.

【5】高懂理.大型公共建筑运行节能管理研究[D].天津理工大学,2009.

【6】陈伟珂,高懂理.公共建筑运行节能管理研究[J].煤气与热力,2008(9):A20? A 23.

【7】郭立,黄志刚,扶庆鹏.大型公建优化运行管理节能分析——

深圳电子科技大厦节能启示[J].城市开发,2011(4):78? 79.【8】王红娜.大型公共建筑节能管理研究[D].天津大学,2007.【9】陈元生,解玉林.博物馆文物保存环境质量标准研究[J].文物保护与考古科学,2002(14):152?

191.结和不断创新,才能真正认识到这类公共建筑运行阶段的能耗特点,从而“对症下药”提高能源利用率。

DOI:10.13655/https://www.360docs.net/doc/0518836731.html,ki.ibci.2014.10.014

Intelligent Building & City Information 2014 10 No.215 65

机房能耗占比与绿色节能机房能耗占比状况如图1所示。

据美国电力转换公司最近的统计数据显示,数据中心的冷却成本大约占总能源的50%。数据中心的过度冷却(overcooling )差不多达到实际需求的2倍,目前多数IDC 机房存在过度冷却问题,相应的机房空调机组耗能也比设计工况增加耗电50%以上,最终造成机房居高不下的高额运行费用。

2 IDC 节能新技术

2.1 定制化服务器节能

2.1.1 研究定制化服务器的必要性

基于数据中心的过度冷却问题,定制化服务器降低了对机房环境温度的要求,降低空调制冷功耗,可有效实现机房节能,提升机房温度预期收益。另外,应用定制化服务器,可采取精确送风,降低传输损耗,便于集中供电或者散热,提高效率。

2.1.2 定制化服务器节能技术

定制化服务器主要从以下5个方面,解决数据中心高能耗问题。

定制化服务器对于电源和空调均有明显的节能贡献,节能平均贡献率分别约为44%和56%。温、湿度和空调、电源能耗的改变都是由定制化服务器带来的。由于定制化服务器资源利用率高,可以减少服务器的成本并有效提高单机架的密度,但是机架密度的提高需要有相应的配套空调、电源等解决方案,同时可能提高相应配套的成本;因此,对数据中心而言,其经济合理性需要多维度的研究。

2.2 自然冷源利用新技术

2.2.1 技术背景和原理

无论如何先进的高效制冷技术,其能耗往往总难以和“不制冷”的自然冷源利用相比。为降低数据中心PUE ,越来越多的项目采用了多种多样的自然冷源利用技术:微软都柏林数据中心采用了 “免费冷却”系统,HP 温耶德数据中心利用北海凉爽的海风对数据中心降温,Facebook 俄勒冈数据中心

图2 节能供冷设备结构

利用风扇墙系统充分引入室外的自然冷源。2.2.2 新技术情况

1)德国GEA 公司的数据中心节能供冷设备

该技术实为一种智能换热和水喷淋降温结合的大规模化产品,基本结构如图2所示。

(1)该设备优点

①结合空调供冷功能,且安装于室外或屋面,不占用机房室内空间。

②智能换热和空调冷却一体化,无需解决设备和机房空调的协同控制问题。

③结合了水喷淋降温手段,且换热器工艺精度高,换热效率较高,可在全年较长时间内全部或部分使用自然冷源供冷。

(2)设备在国内应用主要面临的问题。

①占地面积大,受到空间限制几乎仅能用于顶层机房,在大型数据中心难以大规模推广。

②设备成本高,远高于普通机房空调加自然换热设备的投资。

(3)技术应用展望

①该设备尤其适合与集装箱式数据中心的结合应用,可能在特定项目中发挥作用。

②再次思路基础上可能发展处一些直接结合建筑设计的自然冷源利用变体形式。

2)公司自主知识产权的热管背板技术

该技术为我公司基于热管空调原理与厂家联合开发的可利用自然冷源的空调新技术,具有较大的后期扩展空间和推

广价值。

2.3 动态UPS

2.3.1 技术背景及原理

近年来随着信息技术的进步DC 中心得到了迅猛的发展,柴油发电机组与在线式UPS 系统作为DC 中心IT 设备的电源得到了广泛的应用。但传统的柴油发电机组的启动时间与

图1 能耗占比状况对比

18%

14%

36%

30%

工厂设备及网络通信设备

空调制冷系统

空调通风及加湿系统

2%照明系统

变压器

/UPS 供电系统

66 智能建筑与城市信息 2014年 第10期 总第215期

技术与应用

Technology and Application

UPS 蓄电池组后备时间的冲突,柴油发电机组及UPS 占地面积问题以及UPS 设备的效率问题,一直是数据中心前期规划中的难题。

本次研究动态UPS 的技术,解决数据中心建设的节能与节地的要求。

动态UPS=柴油发电机组+UPS+蓄电池组2.3.2 动态UPS 的优缺点分析

1)优点

(1)动态UPS 系统安全可靠性高。(2)设备运营周期内总成本低。(3)节能效果显著。

(4)设备不需要空调制冷,降低能耗。(5)占用DC 机房面积大大减少。(6)具备无功功率调节功能。(7)维护简单、维护量减少。(8)无污染。

2)缺点为初期建设投资较高。2.3.3 动态UPS 在DC 行业的使用展望

动态UPS 有效整合了UPS 、蓄电池组、柴油发电机组,设备主要由机械、电机组成,可靠性大大提高,经过简单组合就能达到T4等级要求。动态UPS 的使用使得DC 中心供电系统结构大大简化,配电环节大大减少,增强了系统的可维护性,减少了系统的维护工作量。

目前电子行业类(如熊猫电子)已大量使用动态UPS ,2011年广东佛山富士通数据中心机房已在国内率先使用动态UPS 。动态UPS 的系统结构简单、节能、节地等优点将应用于下一代数据中心。

3 经典案例分析

中国电信北京亦庄云计算中心是中国电信及北京电信重点建设的数据中心项目(如图4所示)

,建筑规模近10万平方米,投资超过16亿元人民币,按照Tier4及中国电信五星级标准建造。建成后将成为亚洲单体规模最大、数据处理能力一流的顶级数据中心,是我公司迄今为止承接的单体规模最大的数据中心设计项目。该项目采用以下节能措施。

1)供配电系统节能

变配电系统深入负荷中心,减少供电半径和损耗;配电线路敷设路由便捷,缩短电缆长度;选用低耗、低噪、高效、节能型变压器;进行集中的无功补偿和谐波治理;采用高压

油机和高压冷冻机组设备,减少损耗;设置合理的用电分项计量装置和能耗监控系统。

2)照明系统(1)光源

采用光效高显色性好的光源,如T5直管荧光灯和紧凑型节能灯。

(2)灯具

采用高效率灯具,并配电子镇流器,功率因素不小于0.9;敞开式灯具效率不小于75%,带保护罩灯具效率不小于65%。

(3)控制

楼梯间设置自熄灭开关,其他功能区尽量采用分区照明、分功能照明、隔盏控制、智能控制等;疏散指示灯、安全出口灯、室外广告牌采用LED 光源。

3)光伏发电系统

太阳能发电与市电集中并网,采用互补供电模式(逆变优先,市电为辅)

,供人防地下室车库照明使用。不设置蓄电池系统,即发即用,提高利用效率,节省投资。

4)暖通空调系统(1)空调冷冻水水温提升

水温10℃/16℃,冷水机组能效提升约9%。(2)空调冷冻水大温差

本项目将冷冻水温差由常规的7℃/12℃扩大到10℃/16℃,冷冻水泵功耗降低42%,占整个空调系统能耗约8%。

(3)水侧自然冷却

在冬季以及过渡季节采用冷却塔加板换自然冷却技术。在气温极低的情况下(室外温度-2℃~0℃以下)

,考虑采用干式冷却器代替部分冷却塔,安全延长自然冷源利用1161h ,干冷器不需要考虑补水问题。

(4)空气侧自然冷却

新风系统采用智能新风系统,部分机房采用水平新风直接引入,充分利用外界环境的自然冷源,将室内热量与室外冷量进行有效的能量交换,以降低室内温度。在过渡季节采用此系统,以降低空调能耗。

(5)机房余热回收

机房排热用于办公、食堂以及油机房等供暖,能量合理分配,提升空调系统整体效率。

(6)冰蓄冷系统

合理用能,削峰填谷;蓄冷满足用电高峰供冷量的50%;制冷系统安全备份;夜间蓄冰,年节约电费约700万元。

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

数据中心节能方案分析

数据中心节能方案分析(总7 页) -CAL-FENGHAI.-(YICAI)-Company One1 -CAL-本页仅作为文档封面,使用请直接删除

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

高效数据中心的六大绿色节能措施

高效数据中心的六大绿色节能措施 和一两年前相比,很多数据中心的运营者们如今也并未热衷于“绿色”这个词。这当然不是说他们已经抛弃了旨在提升能源效率,更好地利用IT资源的各种项目,因为这些项目既可以削减运营成本,又能减少对环境的影响。 市场咨询公司451集团在考察了被大批组织和机构所接受的可降低数据中心运营成本的六种绿色实践之后,发布了一份内容全面的报告:《高效节能的数据中心实践》。其中的一些实践做法,如进行数据中心的全面规划,寻找可替代传统制冷系统的方案等可能早已被大家所熟知;其他做法,如采用直流供电和预制件数据中心等,则很少有人谈及,或者被认为不可持续而不予理会。 在计划升级其设施时,数据中心的运营者们应该好好考虑或者重新考虑一下这些趋势。当然,并非所有这些实践都适合每一个组织,但如果你不去看看,那你就有可能永远都不知道有这些实践做法存在。 实践1:采取综合的可提升整体效率的方法 数据中心运营者需要通过结合了集成技术和各种手段全面处理效率问题的方法,而不能孤立地去对待每个项目。这其实并不是什么开创性的概念:绿色网格组织从2008年成立以来就一直在提“通盘考虑”的口号。而这样做的最大好处之一就是可以促进各部门间,尤其是设施部门和IT 部门间的协同,确保所有的参与者在对数据中心进行升级改造时能够意见一致。举例来说,IT 部门订购了一个用于关键任务项目的高端服务器机柜,那么他只需要在机柜到达数据中心时打听一下是否有足够的电力或冷却能力支持这个机柜便可。 组织内的协作并未到此结束。为了努力减少能源浪费,很多企业部门之间如今已越来越开放,曾经是各部门最隐秘的东西也可以公开。这方面最有名的例子就是Facebook,利用其开放计算项目,该公司有关高效服务器、机柜和冷却设备的蓝图也都在开源。 实践2:更智能的冷却系统 数据中心运营者们正逐渐意识到,数据中心设施并非存放肉类的大冰柜,只需要适当制冷即可。虽说IT管理人员不希望设备因过热而失灵。但如果你花在IT上的每个美元都得分出50美分用于制冷的话——这正是很多传统数据中心的平均PUE比值——那几乎可以肯定你是在烧钱。 有好多种办法可以降低冷却成本,其中一些技术始终不被企业所接受,生怕会毁掉他们的宝贵硬件。这其中就包括液体冷却技术,该技术被认为会产生很多维护方面的问题,而且使用范围有限。但是来自绿色革命冷却公司的一种液体冷却方法采用了低成本、无污染的绝缘液体,据称其吸热能力是空气的1200倍。 至于空气冷却这种免费冷却方法则要比液体冷却更受欢迎。这个概念也很简单:只要把数据

数据中心制冷系统发展趋势

数据中心制冷系统发展趋势 数据中心制冷设备是为数据中心环境、数据中心主设备服务的、是依托于数据中心设备、功能而存在的,所以从根本上讲,我们看数据中心制冷系统的发展趋势,应该结合数据中心本身的发展来看,比如应用的行业、规模、主设备等等因素的变化都可能会导致数据中心制冷设备变化,甚至国内外标准的升级、国家区域政策的变化也对数据中心制冷的形态产生直接或间接的影响。 一、2000年左右数据中心行业发展初期,web1.0时代 1、数据中心特点 (1)计算机、互联网尚未普及,数据中心概念尚未建立; (2)小型计算机房、通信机房,设备少、面积小、单位发热低; (3)相关标准刚刚建立,多为借鉴国外标准,实际应用经验少; (4)对数据中心理解较少,主要解决安全性问题。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)基本功能实现,温湿度、洁净度。 3、制冷方案:以单元式风冷直膨设备为主 4、系统特点

(1)单元式分体机组,室外机占用空间; (2)单机冷量小,通常不超过100kW; (3)安装、运维简单; (4)自带加除湿功能; (5)能效受限,cop2.5左右; (6)室外机场地受限,占地较多,不适合高层写字楼。 二、2000年-2008年,数据中心行业快速成长期,进入web2.0时代 1、数据中心特点 (1)信息化建设加速,数据服务业务增加,机房数量增多、行业增多; (2)中大型机房开始出现,计算机房、通信机房开始转变为数据机房; (3)IT设备、服务器单位功耗增加、密度增加,对电、冷、空间、环境要求提升; (4)行业积累了一定经验,开始针对性定制或升级相关技术标准,规范更细致; (5)机房建设、运营更加专业化、标准化。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)能适应不同机房特点、方案灵活; (3)设备功能提升,如群组功能、智能运行功能等;

数据中心制冷技术的应用及发展V2 1

数据中心制冷技术的应用及发展 摘要:本文简要回顾了数据中心制冷技术的发展历程,列举并分析了数据中心发展各个时期主流的制冷技术,例如:风冷直膨式系统、水冷系统、水侧自然冷却系统及风侧自然冷却系统等。同时,分析了国内外数据中心制冷技术的应用差别及未来数据中心制冷技术的发展趋势。 关键词:数据中心;制冷;能效;机房;服务器 Abstract This paper briefly reviews the development of data center cooling technology, enumerates and analyzes the cooling technologies in data center development period. The enumerated technologies includes direct expansion air-conditioning system, water side cooling system, water side free cooling system and air side free cooling system, etc. At the same time, the paper analyzes the difference of data center cooling technology application between the domestic and overseas as well as the tendency of data center cooling technology in the future. Key words data center; cooling; efficiency; computer room; server 1前言 随着云计算为核心的第四次信息技术革命的迅猛发展,信息资源已成为与能源和材料并列的人类三大要素之一。作为信息资源集散的数据中心正在发展成为一个具有战略意义的新兴产业,成为新一代信息产业的重要组成部分和未来3-5 年全球角逐的焦点。数据中心不仅是抢占云计算时代话语权的保证,同时也是保障信息安全可控和可管的关键所在,数据中心发展政策和布局已上升到国家战略层面。 数据中心是一整套复杂的设施。它不仅仅包括计算机系统和其它与之配套的设备(例如通信和存储系统),还包含配电系统、制冷系统、消防系统、监控系统等多种基础设施系统。其中,制冷系统在数据中心是耗电大户,约占整个数据中心能耗的30~45%。降低制冷系统的能耗是提高数据中心能源利用效率的最直接和最有效措施。制冷系统也随着数据中心的需求变化和能效要求而不断发展。下文简要回顾和分析了数据中心发展各个时期的制冷技术应用,并展望了未来数据中心的发展方向。 2风冷直膨式系统及主要送风方式 1994年4月,NCFC(中关村教育与科研示范网络)率先与美国NSFNET直接互联,实现了中国与Internet全功能网络连接,标志着我国最早的国际互联网络的诞生。

浅谈现代数据中心绿色节能的策略

浅谈现代数据中心绿色节能的策略与手 数据中心守护着企业重要IT设备的运行,如服务器、网络设备以及存储设备等,在数据中心支持全球数十亿人口上网的同时,也产生大量的机房能耗,因此,势必要研究具体的机房能效改善对策,才能真正实现节能。对于当前的数据中心管理者来说,必须采用高效率的机房经营方针,才能取得“环保”及“经济”双赢的好处。 提升数据中心能源效率的第一步,便是审慎评估能源使用效率(PUE, Power Usage Effectiveness),简单来说,PUE就是数据中心总耗电除以IT设备总耗电,或是数据中心总设施消耗的能源除以IT设备消耗的能源。PUE是由Green Grid所召集的政府及产业专家组成的项目小组所制定的一项指标,不仅信赖度高,而且可以用来检验机房的能源效率,可以广为适用于一般数据中心,目的是建立一个“一致且可重复使用的衡量指标”,提供数据中心管理者持续监控并改善能耗状况。根据Uptime Institute于2014年进行的调查研究显示,全球业界平均PUE为1.7,高于2013年的1.67,但低于2012年的1.8,表示机房节能仍有改善空间(如图1)。 图1:数据中心平均PUE调查, 2011-2014 (数据来源:2014 数据中心产业调查报告--Uptime Institute) 受到近年来大数据、物联网浪潮的推动,各地的机房建设持续进行,同时,在环保意识高涨的氛围下,“机房节能”也成为了一门新的研究领域。从客观事实来看,首先,数据中心的电力支出占总持有成本(TCO, Total Cost of Ownership)的一大部分,仅次于人力成本;其次,数据中心常背负着“不环保”的恶名。然而,实际上,以美国为例,数据中心仅消耗了总能源的百分之二,且低于全世界平均值,可见仍有许多机房采用节能手段达到节能减排的目标。截至目前为止,仍有许多数据中心尚未采用任何效率指标,导致数据中心的节能毫无标准可循。虽然PUE仍存有许多争议,但是PUE值仍是衡量数据中心基础设施效率的主要指导方针,而且对于拟定及执行数据中心的绿色节能策略也很有参考价值。 二、数据中心绿色节能策略 根据《自然气候变化(Nature Climate Change)》发表的一篇论文《低碳数据中心的特征》表示,IT设备如:服务器、存储设备、通讯技术、基础设施(风扇、冷却、水泵、配电等),其本身的效率以及碳排放,是影响数据中心产生温室气体的主要因素。这篇论文提出建议,如果专注于能耗改善的部分,将可对数据中心的绿色节能计划产生显著的影响。 以下列举七大数据中心的绿色节能策略,将有助于改善数据中心能耗,并优化PUE。

数据中心能耗分析范文

数据中心能耗实例分析 前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。 一、数据中心节能的必要性 近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。 随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为1.25。据最新报道Google公司现在已经有部分数据中心的PUE降低到1.11。而我们国内的PUE平均值基本在1.8~2.0,中小规模机房的PUE值更高,大都在2.5以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。 根据对国内数据中心的调查统计,对于未采用显著节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH左右。因此对于新建的大型数据中心,节能的必要性十分重要。 从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。 二、影响数据中心能耗的因素 数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对UPS而言,根据IT设备的实际负荷选择合理的UPS 容量,避免因UPS效率过低而产生较大的自身损耗。同时,选择更加节能的高频UPS、优化UPS拓扑结构都可起到节能的效果。 1、UPS对数据中心能耗的影响 UPS主机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作

数据中心节能方案分析

数据中心节能方案 分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其它专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,当前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,而且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆

放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,可是她们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工

大型数据中心空调制冷系统的节能技术研究

大型数据中心空调制冷系统的节能技术研究 发表时间:2019-10-24T14:39:39.913Z 来源:《基层建设》2019年第22期作者:蒋广才[导读] 摘要:近年来,我国的暖通空调系统有了很大进展,大型数据中心空调制冷系统的构成复杂,使用时耗能大,以环保为核心的大趋势下,节能是各类系统优化的基本方向。 山东科灵节能装备股份有限公司山东潍坊 262100 摘要:近年来,我国的暖通空调系统有了很大进展,大型数据中心空调制冷系统的构成复杂,使用时耗能大,以环保为核心的大趋势下,节能是各类系统优化的基本方向。本文分析了大型数据中心空调制冷系统的节能技术应用,提出了促进系统综合性能的优化及强化的措施,仅供参考。 关键词:空调制冷系统;节能技术;节能要点引言 目前在我国暖通空调系统当中所应用的节能环保技术正在不断的发展和进步,在保证能源消耗不再增长的基础之上,可以使暖通空调系统具备除湿、制冷、制热等不同的功能,从而能够实现对二氧化碳排放量的有效控制,降低温室效应,提高能源的利用效率。 1、大型数据中心空调制冷系统的特点 大型数据中心具有三大基础资源:机房空调建设,空调制冷,电力供应,占地面积为几万平方米。为了保证三大基础资源平衡,同时达到较高的资源利用率,通过调整电力供应资源和制冷资源来平衡整体资源匹配程度。单栋数据中心能耗占成本的76%,建设成本中制冷成本占21%,所以对数据中心的制冷节能是必要的。维修与维保两个降低能耗的方式,可以提升全生命周期,可以按时的掌握设备的工况,能够迅速地检测设备故障,高度的管理性是数据中心不可或缺的必要因素。 2、影响空调制冷能耗的主要因素 产品的设计、选型及安装决定了制冷系统的工作效率,主要的影响因素有以下几点:第一,换热温差。一般而言,蒸发器内制冷剂蒸发的温度低于大气中的温度,才能将热能转给制冷剂吸走,并且保持压力平衡状态。第二,膨胀阀开启度。根据过热度进行定期检测,不断校准,使其过热度保持在合适的范围内。第三,制冷产品应用范围越来越广,且能耗巨大。随着社会的不断发展,制冷空调应用于企业、商场、学校、住宅等领域,耗能急剧增加。第四,选用高效能的压缩机及蒸发器冷凝器结构及换热面积的优化配置,高效换热材料的应用。第五,制冷系统安装工艺的改进提高等。第六,先进电气控制系统的应用等。 3、大型数据中心空调制冷系统的节能技术 3.1可用度分析 数据中心的主要应用目标是用于对组织运作的数据进行处理。这样的系统可以从软件企业购入,也可以由组织内部进行独立开发。一般情况下通用的系统包括了企业资源计划和客户关系管理系统。整个数据中心的服务倾向综合性服务。这样的系统一般由多个主机构成,各个主机的运行都是独立的,掌管单一的节点,包括数据库、应用服务器、文件服务器、中间件等等。此外数据中心也经常用于对非工作站点完成备份。这些备份通常与备份磁带共同使用。将本地服务器信息录入磁带。除此之外磁带的存放也易受环境的影响。规模较大的公司,可能会将备份的系统信息传递到非工作空间。并且借助数据中心完成回投。备份在经过加密之后,可以通过互联网被发送到另一个数据中心当中,得到妥善保存。为了达成受影响后恢复的目标,许多硬件供应商都提供了新的解决方案,以保证短时间内的可操作性。包括思科系统,美国太阳微系统公司的Sun微系统,IBM和惠普公司共同开发的系统,都是创新性的解决方案。在实际的系统应用过程中,因为可用度关乎空调系统的质量,因此冷却水泵、冷却塔及冷水机组的可用度等,都关系到厂家。在自然冷却的情况下,设备的群组串联方式相对来说有更强的可用性。 3.2可维护性比较 由于机房具有一定复杂性,随着业务的发展,管理任务必定会日益繁重。所以在机房的设计中,必须建立一套全面、完善的机房管理和监控系统。所选用的设备应具有智能化,可管理的功能,同时采用先进的管理监控系统设备及软件,实现先进的集中管理,从而迅速确定故障,提高运行性能、可靠性,简化机房管理人员的维护工作。 3.3可管理性与节能性的比较 可管理型的衡量应首先从冷热通道的控制去分析,因许多用户会使用塑料板去隔离冷热空气,进而确保冷却的效率得到提升。冷热通道控制这一手段的应用能够确保数据中心的冷却效率有百分之十五左右的提升。实际转换成电力消耗的数值,在服务器数量五百,每度电费五毛的前提下,每年约省电费的数额为七万两千元。但是依照当前的运行成本及系统概况来看,因涉及许多环节的操作,所以这样的处理需要面对较大风险。近年来随着冷水机组制冷效率的不断提升,制冷过程当中水泵的耗能占比也更高,甚至能够达到整个系统能耗的百分之十五到百分之三十五,在设备群组模式下,调节水流量与扬程的方式更多,能够达成多台水泵的同步变频,并且对变频水泵的台数进行控制。在多冷源并联模式下是无法对台数进行控制的,所以设备群组方式的优势更为明确。 4、关于暖通空调系统的空调制冷管道的安装管理技术与安全对策 4.1制冷管道的敷设方式 制冷系统的排气管要设置在吸气管上端,两管设置在同一水平支架上,同时两者要确保在一定的距离,以确保避免出现吸气管道与支架直接接触产生相对应的冷桥问题。同时也要着重根据相关情况,把一个油浸过的木块放到管道之间的空隙缝内。敷设制冷剂的液体与气体管道在应用方面要与既定的设计要求相符合,用顺流三通接口。针对制冷管道弯道的设计,要用冷报弯设计,因为这样可以很大程度上有些要减少管内的秽物。针对地下敷设进行划分可以划分为三种情况,分别是:通行地沟敷设、半通行地沟敷设以及不通行地沟敷设。大多数时候都要进行通行地沟敷设的地沟的设置,冷热管要敷设在同一个通行地沟内部,低温管道的敷设要与其他管道有足够的距离,同时要设置在其他管道的下边。半通行地沟高度要稍微低于通行地沟,高温管与低温管不可以在同一个地沟内敷设。 4.2高效能的压缩机换热技术 制冷空调的核心技术是压缩机,提高压缩机的工作效率,不断改进结构,控制能耗,将传统的活塞式、旋转式压缩机逐渐用涡旋式压缩机,高效螺杆式压缩机及磁悬浮离心式压缩机取代并采用变频控制。选取优质的材料,使得压缩机传热效果增强,增加换热接触面积,提高换热性能,使热量及时排放有效地增加效绩。

基于绿色数据中心节能建设分析

基于绿色数据中心节能建设分析 发表时间:2016-11-09T15:21:54.870Z 来源:《基层建设》2016年16期作者:刘宝新 [导读] 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 北京国信网通科技有限公司北京市 100085 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 关键词:绿色;数据中心;节能建设 1绿色数据中心节能指标分析 目前,衡量数据中心是否绿色的主要量化指标是采用绿色网格组织(GreenGrid)制定的能效比指标,又称为PUE(PowerUsageEfficiency)。 PUE=[TotalFacilityοfPower(设备总能耗)ITEquipmentPower(IT设备总能耗)×100%]=1+[空调能耗IT设备能耗]+[通风能耗IT设备能耗]+[配电能耗IT设备能耗]+[UPS能耗IT设备能耗]+[照明能耗IT设备能耗]+…… PUE反映了数据中心总能耗和计算、存储、网络等IT设备能耗的比值。PUE值大于1,其数值越小,说明能源利用率越高。目前,国外先进的数据中心的PUE值能达到1.5~1.8,而我国的数据中心的PUE值为2~3,说明仅有33%~50%的电能用在了IT设备运行上,50%~66%的电能消耗在空调、配电等设备上。 2建设绿色数据中心应遵循的原则 2.1突出绿色环保,科学拟制方案:绿色数据中心建设要结合数据存储使用需求,根据信息采集、传输、处理和分发的具体使用需求,以及IT设备的具体特点,围绕绿色环保对数据中心的供电方式、UPS电源容量、制冷方式、照明、风路、水路、电路、管网、主要IT设备的选型等方面进行综合考虑,进行统一规划设计,并逐项细化,寻求最高效益。 2.2突出节能高效,合理配置资源:首先要突出保障重点。根据实际和存放数据的重要程度,可将数据中心划分为高密区、中密区和低密区,重点对高密区的电源、通风、制冷设备采取多种技术措施,制订多种配置应用方案。其次要便于系统扩容。根据信息化建设的发展特点,基础设施需求会呈现非线性爆炸性增长趋势,所以在数据中心的规划建设中,要充分考虑选址合理、系统容量易于扩展。 2.3突出稳定可靠,提高重组能力:不能稳定可靠运行的数据中心是无用的数据中心,因此设计数据中心一定要在提高其重组再生能力方面下功夫。硬件设施方面,在电源引接上,要有两个以上不同方向的路由线路;在UPS配置上,要采取多组互联方式,保证每个PDU单元、每个机柜的接电排、每个设备的电源输入端子上,都有两路以上独立UPS电源引接;在风机、制冷及配线上要进行N+1备份,对重要的保障区域要实现1+1备份。软件配置方面,运用云计算及虚拟化技术,将故障的网络、计算、存储等设备的应用随时自动平滑迁移到其他网络、计算、存储设备上,保证业务的不间断运行,提高系统重组能力。 2.4突出安全智能,提高管控水平:在外围监控上,要设立安全隔离区,建立由电子围栏、红外探测、夜视监控、自动报警、门禁系统等组织的综合外围监控系统,以提高安保等级。在区域设置上,区分维护区、设备区、控制区,将数据中心规划为不同的安全防护等级,采取多种身份认证措施和不同的防护手段,对核心控制区要设置以生物特征识别为基础的身份认证系统,严格人员进出管理;对核心设备区要设置气体消防,保证设备安全。在防电磁泄露上,对电源线、信号线等要采用屏蔽电缆,避雷装置和电缆屏蔽层应接地,对核心设备区要加装电磁屏蔽设施,保证设备安全可靠;在智能管理上,对数据中心的周边安全、内部温(湿)度等环境参数,对风、机、电、水相关配套系统运行指标,对计算、存储、网络设备负载运行状态,要能做到实时感知、直观呈现、智能处理,提高运维管理效率。 3建设绿色数据中心应关注的问题 3.1减少IT设备能耗:根据能耗结构和能耗路径图,IT设备每减少能耗1W,数据中心将整体减少能耗2.84W。在保证效率的前提下,降低IT设备的能耗是一个最有效的方法。从实现技术上看,主要有两种方法:一是采用高效低耗的核心部件。受加工工艺和技术水平的影响,不同供应商提供的CPU等核心处理器在能耗上存在20%~40%的差异,要尽量采用节能产品。二是采用工作效率较高的新型服务器,如用刀片式服务器取代机架式或塔式服务器,设备可节能20%~30%。 3.2采用虚拟化技术:采用虚拟化技术对现有服务器、存储设备进行整合,在不增加硬件投入成本的情况下,将所有的服务器、存储设备虚拟成一个公用的资源池,统一灵活调配,提供服务,在提高性能的同时减少物理服务器、存储设备的数量,减少电力、制冷和场地成本。在服务器方面,传统服务器平均CPU利用率一般为7%~15%,经虚拟化整合后,CPU利用率能提高到60%~70%,还能实现虚拟服务自动迁移、数据存储整体读写速率、系统鲁棒性和高可用性的提高。 4.3提高制冷效率:机房空调对数据中心的安全稳定运行起保障作用,空调耗电量在数据中心的总耗能中约占50%,已经超过了IT设备本身的耗电成本。提高制冷效率,主要从两个方面入手:①使用精密空调替代普通空调。同功率的普通空调和精密空调产生同样的制冷量,前者耗电量是后者的两倍。②规划好机房内冷热气流通道,避免交叉。传统的机房空调直接对机柜吹风或采用下送风方式,送(回)风路径不合理,应采用冷热气流通道隔离技术,科学设计机房各要素布局,缩短冷气流的运行距离,实现精确定点的冷能量投送,以减小能量消耗,提高空调制冷效率。 3.4减少供电模式转换:交流直流转换过程中的热损耗是数据中心隐性耗电的“大户”,能耗高达20%~30%。在传统供电方式下,为UPS 充电,要将外部交流电源转换为直流为电池充电;使用UPS电源时,要将UPS电池直流转换为交流,为IT设备电源模块供电;IT设备工作时,由于CPU等耗电设备是直流供电,IT设备电源模块要将外部交流转换为直流。在条件允许的情况下,尽量使用直流供电的服务器,通过直流电源供电方式,减少交流和直流电源逆变的次数,以提高电能应用效率。 3.5加强运维管理:通过精确智能的运维管理工具,实时监控和分析各种IT设备负载情况,及时发现、处理、维修、停用异常的IT设

数据中心空调系统节能设计分析及方法探究

数据中心空调系统节能设计分析及方法探究 发表时间:2019-08-06T15:46:25.110Z 来源:《建筑学研究前沿》2019年8期作者:傅永洪 [导读] 空调系统作为保证数据中心的稳定高效运转必不可少的措施,经过专业研究有着极大的节能减排的挖掘余地。 浙江新大新暖通设备有限公司浙江金华 321000 摘要:伴随着大数据时代的到来,我国的数据中心的数量与日俱增。但是数据中心的高能耗问题也成为了我国节能减排工作需要关注的一个重点问题,本文以大型数据中心空调系统作为研究对象,在分析大型数据中心空调系统的设置和特点的基础上,提出具有可实施性的节能措施,进而提高大数据中心空调系统的节能减排和能源利用率。 关键词:数据中心;空调系统;节能;分析研究 一、引言 进入大数据时代,各行各业的发展越来越离不开能够集中处理、存储和交换数据的专业数据中心,因此,各领域的数据中心建设和改造数量越来越多,规模越来越大。可以说我国的数据中心发展迅猛。但是通过系列的调查研究,可以发现我国当前的数据中心年耗电量很大,这也就意味着我国大多数的数据中心的平均电能使用效率(简称PUE=数据中心总能耗 / IT设备能耗)高,这并符合当前节能减排的发展原则。因此,我们需要通过多种形式的策略减少大数据中新的高耗能问题。其中,空调系统作为保证数据中心的稳定高效运转必不可少的措施,经过专业研究有着极大的节能减排的挖掘余地。 二、数据中心空调系统的组成 数据中心空调系统主要有制冷系统、散热系统及降温辅助系统三部分组成。 (一)制冷系统 主要是冷水机组,制冷系统的工作原理是通过转变制冷剂的高压、低压的形态,利用空气的流动性,迫使数据中心机房内部的热量流出室内。制冷系统作为保证机房温度的基础保障,是空调系统高耗能的部分之一,影响空调系统中制冷系统能源消耗的因素有机房环境温湿度、室外环境温湿度、受负载率等。 (二)散热系统 主体是风机或泵,工作原理是利用空气或水把热量从数据中心内部搬运到数据中的室外。排热系统产生足够的风量或水量以带走巨大的热量,但同时散热系统也是数据中空调系统耗能高的部分之一。影响散热能源消耗的因素是机房内部的气流组织。 (三)降温辅助 工作原理是通过冷却塔、喷头或湿式过滤器,利用水的蒸发在热量排到室外的工作过程中提供帮助。降温辅助系统可以提高换热效率,帮助空调系统把热量散发地更快。降温辅助系统的耗能比例占空调系统整体耗能比例较小。 三、数据中心空调系统高耗能解析 (一)空调系统配置不合理 由于数据中心对内部环境的恒定温湿度和空气质量都有很高的要求,但限于一些外部环境和技术升级的原因,大部分数据中心的空调系统都不引入室外新风,而采用循环风带走室内高密度的显热量。一般情况下,在室内没有湿源的条件下采用循环风的送风方式,空调系统是不用除湿的。但在数据中心空调系统的实际运行中,机房空调仍会流出冷凝水,这是因为空调在冷量输出时,冷凝水会携带冷量。因此数据中心在严格空气湿度的情况下,机房空调系统通常会一边对机房内部降温回风、冷凝除湿,另一方面又同时加湿,这种设备工作方式并不不合理,会造成大量不必要的能量浪费。 (二)机房气流组织不合理 数据中心机房内部的气流组织会对整体的散热排风效率产生极大的影响,当前的多数数据中心的气流组织都存在一些不合理的现象,主要体现在以下三方面:一是机柜排列方式不合理,把机柜面向同一个方向摆放,造成的结果就是前面服务器排出的热空气直接被后排服务器吸收,使得冷热气流混合在一起,大大拉低了空调制冷效率;二是送风通道设计不合理。一些数据中心建设规划不专业,送风管道等不符合标准,影响了空调系统的制冷能力,为了满足制冷要求会选用超出设备发热量的空调,提高了耗电量;三是地板出风口位置和空调出风口的距离设置不合理,甚至在二者之间摆放机柜,造成出风量不足、局部过热的问题。 四、数据中心空调系统的节能措施 (一)采用自然冷却技术 传统的常规制冷系统,需要制冷系统全年不间断地制冷,冷水机组全年运行运行,占据了空调系统的极大的耗电量。因此,采用自然冷却技术,可以在低温环境下,优先利用低温的自然水或风做冷源,免除了冷水机组的耗电成本。目前的自然冷却技术,主要有水侧自然冷却技术和风侧自然冷却技术两种。 (1)水侧自然冷却技术 水侧自然冷却技术,顾名思义就是在符合标准的情况下利用自然水做冷源供水。采用水侧自然冷却技术,一般需要把冷水和冷却水系统串联在板式换热器中,并把冷水的供回水温度设置成三段式:当冷却水供水温度≥16℃时,冷水机组和平时一样常规制冷,单独承担数据中心的全部冷负荷;当冷却水供水温度降到10—16℃,系统可以开始使用部分的冷水作为免费冷源,由冷水机组和免费冷源共同为空调系统提供冷负荷;当冷却水供水温度<10℃以下时,冷水机组可以在技术设置后自动停止运行,空调系统的全部冷负荷由免费冷源提供。通过自然冷却技术,在过渡季和冬季减少了压缩机工作,这种技术十分适合在我国北方沿海范围内的寒冷湿润性气候里使用,可以大大降低数据中心空调系统的PUE值。 (2)风侧自然冷却技术 风侧自然冷却技术包括和间接利用室外新风两种方式。直接利用室外新风,是指把室外低温冷空气运用过滤、除硫等方式净化处理后,直接引进数据机房内,作为冷源冷却设备,实现节能。如全年PUE仅1.07的FACEBOOK数据中心,采用的就是直接利用新风供冷。间接利用室外新风,又称“京都制冷”,东京很多的数据中心都采用这种方式,具体是指室外低温空气不直接进机房,而是通过转轮式换热器吸

数据中心机房制冷空调系统运维技术考核题目答案参考

数据中心(机房)制冷空调系统运维技术考核题目答案参考 类数据机房温湿度范围?单点温湿度波动范围? A类机房温湿度要求:23±1℃,40--55% ;单点温度波动小于5℃/h,湿度波动小于5%/h 参考:GB50174《电子信息系统机房设计规范》 2.空调回风参数:温度25℃,相对湿度50%;求露点温度? ℃参考:标准大气压湿空气焓湿图;此题关注会查空气状态点对应的露点温度和湿球温度 3.自然冷却模式、预冷模式、普通制冷模式的切换依据,对应的环境湿球温度值是多少? 湿球温度<10℃适合自然冷却模式,10--15℃之间适合预冷模式,>15℃适合普通制冷模式 参考:水冷自控系统供冷模式转换控制逻辑 4.机房空调送风距离多少米为宜?6-10m为宜 5.数据机房采用地板送风,风速范围多少m/s为宜? ( m/s最佳)参考:GB50174《电子信息系统机房设计规范》 6.数据机房新风正压要求数值? 机房与走廊;机房与室外参考:GB50174《电子信息系统机房设计规范》 7.数据机房新风量:人均参考值?每平米参考值?按机房换气次数每小时几次为宜? 按工作人员每人40m3/h;每平米25--30 m3/h;机房换气次数次/h(人员进出的机房取4次/h) 8.计算:900个标准机柜(13A)需要多大面积的机房合适?如选用艾默生冷水型机房空调P3150G至少需要多少台?按4-5台以上备份1台的标准,最多需要多少台?需要多大冷量的冷水机组提供冷源?需要多大风量的新风空调提供机房正压? 每个机柜加上冷热通道,平均面积取;×900=2070㎡(可分成4个㎡模块间,每个模块225台机柜) 每平米可用制冷量不能小于+每平米维护结构热负荷=每平米冷量需求 总冷量需求:×2070=3312KW 查艾默生冷水型空调样本:P3150G标准冷量为;需留有20%的预留(使用系数取) 艾默生P3150G冷水型空调单机净冷量:×= ○标准需求台数:3312÷≈28台;冗余配置(4+1):28÷4=7台(需配备机7台);含备机需28+7=35台 ○IT设备功耗转换成热量系数(取计算);13A机柜功耗,转换为热量÷≈ 总热负荷:×900=3429KW,除以P3150G空调单机净冷量≈29台,按冗余配置(4+1),需配备机7台;含备机需29+7=36台 ○空调系统制冷量取IT负载的倍;IT总负载:×900=2574KW;空调系统总制冷量:2574×= 除以P3150G空调单机净冷量≈28台,按冗余配置(4+1),需配备机7台;含备机需28+7=35台 ●需要冷量为3429KW(约1000RT)的冷水机组(离心式)1台提供冷源 新风量每平米25--30 m3/h(取30 m3/h);总新风需求30×2070=62100 m3/h,建议规划4个模块间单独提供新风62100÷4=15525 m3/h,需要新风量15525 m3/h的组合空调4台 9.制冷设备能效比EER是如何计算的? EER即制冷设备的制冷性能系数,也称能效比,表示制冷设备的单位功率制冷量。EER值越高,表示制冷设备中蒸发吸收的热量较多,压缩机耗电较少。数学计算公式:EER=制冷量(KW)/制冷消耗功率(KW) 单位:W/W或KW/h/W 10.冷站(动力站)COP是如何计算的? 冷水机组实际制冷量和配套设备(压缩机-马达+冷冻水循环泵+冷却水循环泵+冷却塔风机-马达)实际输入功率之比 11.数据机房PUE是如何计算的?绿色节能机房PUE标准? PUE是评价数据中心能源效率的指标,是数据中心消耗的所有能源(电能)与IT负载使用的能源(电能)之比PUE=数据中心总设备能耗/IT设备能耗;基准是2,越接近1表明能效水平越好 绿色节能机房PUE标准:以下 12.接题目8,匹配适合该冷水机组的冷却塔参数(流量)?冷却塔设在楼顶距冷站(动力站)20米,匹配适合该冷水机组的冷却循环泵参数(扬程和流量)?匹配适合该冷水机组和机房空调的冷冻循环泵参数(扬程和流量)(注:水泵出口至管网最高点垂直高度15米)? 水量需求:冷凝器()/RT 蒸发器(3/h)/RT

相关文档
最新文档