如何选择数据中心空调自然冷却方案
数据中心空调系统节能技术白皮书

数据中心空调系统节能技术白皮书目录1. 自然冷却节能应用31.1 概述31。
2 直接自然冷却31。
2。
1简易新风自然冷却系统31。
2。
2新风直接自然冷却51。
2。
3 中国一些城市可用于直接自然冷却的气候数据: 8 1.3 间接自然冷却81.3.1间接自然冷却型机房精密空调解决方案81。
3。
2风冷冷水机组间接自然冷却解决方案121。
3.3水冷冷水机组间接自然冷却解决方案151。
3.4 中国一些城市可用于间接自然冷却的气候数据:16 2。
机房空调节能设计172。
1 动态部件172.1。
1 压缩机172.1。
2 风机182.1.3 节流部件192.1.4 加湿器192.2 结构设计212.2.1 冷冻水下送风机组超大面积盘管设计212.2。
2 DX型下送风机组高效后背板设计222。
3 控制节能222。
3.1 主备智能管理222.3。
2 EC风机转速控制232。
3。
3 压差控制管理232.3.4 冷水机组节能控制管理261。
自然冷却节能应用1.1概述随着数据中心规模的不断扩大,服务器热密度的不断增大,数据中心的能耗在能源消耗中所占的比例不断增加。
制冷系统在数据中心的能耗高达40%,而制冷系统中压缩机能耗的比例高达50%。
因此将自然冷却技术引入到数据中心应用,可大幅降低制冷能耗。
自然冷却技术根据应用冷源的方式有可以分为直接自然冷却和间接自然冷却。
直接自然冷却又称为新风自然冷却,直接利用室外低温冷风,作为冷源,引入室内,为数据中心提供免费的冷量;间接自然冷却,利用水(乙二醇水溶液)为媒介,用水泵作为动力,利用水的循环,将数据中心的热量带出到室外侧。
自然冷却技术科根据数据中心规模、所在地理位置、气候条件、周围环境、建筑结构等选择自然冷却方式。
1。
2直接自然冷却直接自然冷却系统根据风箱的结构,一般可分为简易新风自然冷却新风系统和新风自然冷却系统.1.2.1简易新风自然冷却系统1.2。
1。
1简易新风自然冷却系统原理简易新风直接自然冷却系统主要由普通下送风室内机组和新风自然冷却节能风帽模块组成。
数据中心专用空调配置选择及PUE值计算

数据中心专用空调配置选择及PUE值计算数据中心机房环境对服务器等IT设备正常稳定运行起着决定性作用。
数据中心机房建设的国家标准GB50174-2008《电子信息机房设计规范》对机房开机时的环境的要求:为使数据中心能达到上述要求,应采用机房专用空调(普通民用空调、商用空调与机房专用空调的差异对比不在本文讨论范围)。
如果数据中心机房环境不能满足以上要求会对服务器等IT 设备造成以下影响:温度无法保持恒定—造成电子元气件的寿命降低局部温度过热—设备突然关机湿度过高—产生冷凝水,短路湿度过低-产生有破坏性的静电洁净度不够—机组内部件过热,腐蚀一)数据中心热负荷及其计算方法按照数据中心机房主要热量的来源,分为:λ设备热负荷(计算机等IT设备热负荷);λ机房照明热负荷;λ建筑维护结构热负荷;λ补充的新风热负荷;λ人员的散热负荷等。
1、机房热负荷计算方法一:各系统累加法(1)设备热负荷:Q1=P×η1×η2×η3(KW)Q1:计算机设备热负荷P:机房内各种设备总功耗(KW)η1:同时使用系数η2:利用系数η3:负荷工作均匀系数通常,η1、η2、η3取0。
6~0.8之间,考虑制冷量的冗余,通常η1×η2×η3取值为0.8。
(2)机房照明热负荷:Q2=C×S(KW)C:根据国家标准《计算站场地技术要求》要求,机房照度应大于2001x,其功耗大约为20W/M2。
以后的计算中,照明功耗将以20W/M2为依据计算。
S:机房面积(3)建筑维护结构热负荷Q3=K×S/1000(KW)K:建筑维护结构热负荷系数(50W/m2机房面积)S:机房面积(4)人员的散热负荷:Q4=P×N/1000(KW)N:机房常有人员数量P:人体发热量,轻体力工作人员热负荷显热与潜热之和,在室温为21℃和24℃时均为130W/人。
(5)新风热负荷计算较为复杂,我们以空调本身的设备余量来平衡,不另外计算。
数据中心冷却技术

T tw,r tw,o 供水泵
换 热 器 阀门 2 阀门 1
机房回水
冷 凝 器
膨胀阀
• 机组表冷器与填料塔共同承 担降温任务,减少表冷器排 数,减少冬季水的蒸发量; • 根据室外湿球高低,调节填 料塔排风机频率,保证稳定 的出水温度; 10
蒸 发 器
压缩机
水冷电制冷机组
机房供水
间接蒸发冷却塔冬季典型工况-防冻原理
间接蒸发冷却塔+电制冷机
耗电量 kW
冷机耗电量 风机耗电量
3500
3000 2500 2000 1500 1000 500 0
普通水冷系统
冷机耗电量 风机耗电量
1500
1000 500 0
3500
30பைடு நூலகம்0
测试结果:塔内湿球温度基本在0℃以上。
15
冬季防冻测试结果
防冻实验—空气水换热器的表面温度分布
风水逆流
测试结果 管内水温在12℃以上。 管壁温度在5℃以上。 对于冬季防冻来说,顺流比 逆流的温度更高, 防冻效果 更好。
风水顺流
16
间接蒸发冷却塔的夏季运行模式
排风 C 排风机
间接蒸发冷水机
tw,p
• 夏季大幅度降低冷凝温度,提高电制冷机的COP,降 低电制冷机的电耗; • 自然冷却时间显著增加,显著降低系统的PUE;
20
实际工程可能遇到的问题
• 如果不能保证水的供应,部分时间缺水怎么办?
• 如果数据中心内部空间有限,没有地方放置大型 电制冷机怎么办?
21
如果不能保证水的供应,部分时间缺水怎么办?
12个标准数据中 心平均电力分布图
能耗高,增长速度快,空调用电比例高
2
数据中心机房冷却塔供冷选型与工况分析

本文分析了冷却塔供冷的关键因素,如热工曲线、湿球温度、工况切换点等,得出以下结论,为数据中心节能设计提供参考依据。
·冷却塔供冷按冬季工况选取,夏季校核,结合夏季工况灵活配置;·冬季供冷以小于冷却塔的额定流量来获取较低出水温度,延长冷却塔供冷时间;·冷却水泵应设变频,适应管网特性曲线变化等设计方法。
01冷却塔供冷冷却塔供冷分直接供冷与间接供冷两种,由于直接供冷需室外冷却水直接进入空调末端,水质不佳时极易引起末端堵塞,而影响系统运行,工程中大多数采用间接供冷系统(开式冷却塔+板式换热器),即与冷水机组并联或串联一台板式换热器。
冷水机组与板式换热器并联,湿球温度达到一定值时,由板式换热器提供全部冷量,关闭冷水机组,使冷却水和冷冻水分别进入板式换热器,冷却塔做为冷源,达到完全自然冷却,但并联形式不能采用部分自然冷却;冷水机组与板式换热器串联,冷水串联经过板式换热器与冷水机组,过渡季节用冷却塔出水先预冷冷水回水,再进入冷水机组制冷,减小主机能耗,得到可观的部分自然冷却时间,仅额外增加水在板式换热器内的输送能耗。
为充分利用部分自然冷却,北方地区数据中心往往选择冷水机组与板式换热器串联这种组合形式,见图1,本文讨论也是基于这个系统。
图1冷却塔供冷系统原理图02 负荷侧系统设计2.1冷负荷数据中心主要由服务器、UPS等散热转化而成的显热负荷,几乎没有潜热负荷,冬夏季冷负荷相差不大,冷却水流量大致在80%~100%内变化;末端干工况运行,冷负荷按显热负荷考虑。
2.2冷水供水温度数据中心考虑采用温湿度独立控制方案,由高温冷水处理显热负荷,新风进行独立的加湿或除湿。
冷水供水温度取值,直接受机柜进风温度取值的影响。
ASHARE推荐的机柜进风温度宜取20~25℃,允许范围是18~27℃。
考虑到空气-水换热器空气侧阻力降的影响,送风温度与冷水供水温差取8℃,可有多种供水温度与送风温度组合,常用的有送风温度20 ℃,冷水供回水温度为12/18℃;送风温度23℃,冷水供回水温度为15/21℃。
数据中心新型冷却方式介绍(6):热管背板空调系统

数据中心新型冷却方式介绍(6):热管背板空调系统从2018年开始,北京、上海、深圳等一线城市,陆续出台“PUE新政”。
2018年9月,北京提出全市范围内禁止新建和扩建互联网数据服务、信息处理和存储支持服务数据中心(PUE值在1.4以下的云计算数据中心除外)。
上海也出台类似政策,存量改造数据中心PUE不得高于1.4,新建数据中心PUE限制在1.3以下。
2019年4月,深圳提出PUE1.4以上的数据中心不再享有支持,PUE低于1.25的数据中心,可享受新增能源消费量40%以上的支持。
为了降低PUE,近几年数据中心新型末端冷却方式不断涌现,水冷背板空调、热管、水冷背板、液体冷却等等。
本文主要介绍热管背板空调系统。
1、热管背板空调系统组成热管背板空调系统组机组主要由框架、蒸发器盘管、进出风温湿度传感器、控制系统、氟利昂管路等组成。
热管背板空调安装位置为服务器机柜回风口位置。
2、热管背板的基本原理热管背板冷却技术是利用工质相变(气/液态转变)实现热量快速传递的一项传热技术。
通过小温差及重力驱动热管系统内部循环工质的气液变化,形成自适应的动态相变循环,将数据中心机房内IT设备的热量带到室外,实现管道内制冷工质无动力,自适应平衡的冷量传输。
机柜内IT设备散发的热量使室内末端中热管换热器的冷剂吸热汽化;汽化的制冷剂依靠压差经连接管路流向室外热管中间换热器;制冷剂蒸汽在热管中间换热器内被来自自然冷源冷水系统的冷水冷却,由气态冷凝为液态;液态制冷剂借卑重力回流至室内末端中的热管换热器中,完成一个冷量输送的热力循环。
热管背板规格包括:3kW、4kW、5kW、7kW、10kW、15kW等,设备能效比可以达到60以上。
图1 热管背板空调运行原理图3、热管背板的主要性能参数标准19英寸服务器机柜的热管背板空调单机柜供冷量超过12kW,供冷密度高。
单机柜可提供的冷量随着热管背板进风温度(服务器排风温度)的提高而升高,随着冷源(冷水)温度的提高而降低。
数据中心冷却技术

数据中心冷却[1]:热回收数据中心热回收是对数据中心空调系统的余热进行收集并回收利用,进而达到能源高效利用,提升热经济性。
由于数据中心全年处在运行状态,产生的余热量大且品质稳定,但温度水平较低,使得热利用面临效益低下问题,故数据中心余热回收利用是一个值得探讨的挑战性问题。
目前,数据中心热回收技术主要是通过收集冷凝器产生的余热满足周围建筑的供暖和生活热水需求。
图1数据中心典型的冷却系统数据中心热回收过程可分成三个组成部分。
首先是在数据中心侧,对其进行冷却,收集产生的余热。
接着将数据中心收集到的余热与热回收循环水换热,循环水温度通过热泵提升达到供暖设计温度后进入蓄热水箱进行统一的热管理,最后经水箱调节后进入民用供暖管网。
图2热回收过程示意图以冷板式液冷数据中心的热回收过程为例。
其散热包括两部分——冷板芯片散热及其他电气元器件的风冷散热。
由于液冷可以达到承受较高的水温,因此室外可采用干冷器直接散热,在液冷高温回水返回干冷器前进入串联的液冷散热热回收换热器,与管网回水换热,再送至用户端完成整个热回收过程。
同时冷板式液冷数据中心还有20%-30%左右的热量需通过风冷散热。
风冷散热可采用传统冷冻水精密空调末端制冷,利用全热回收冷水机组在制冷同时进行热回收,并配置闭式冷却塔平衡散热及热回收量。
此外,在闭式冷却塔与冷冻水系统之间可设置自然冷却换热器,供低温季节进行自然冷却。
图3冷板式液冷数据中心热回收示意图在目前的数据中心中使用冷凝热回收,满足周围建筑供暖和生活热水已经有许多成功的案例,例如瑞典的斯德哥尔摩数据中心,其产生的热量可满足2万套现代住宅公寓的供暖;国内腾讯在天津滨海的数据中心,其产生的余热可满足5100多户居民的用热需求。
热回收技术在数据中心中的应用,能够有效解决因数据中心散热导致的热岛效应,同时提高能源利用效率。
相信随着热回收技术的发展,还会有更多不同的余热利用形式在数据中心得以成功应用。
数据中心冷却[2]:冰蓄冷冰蓄冷技术是一种利用夜间用电低谷时段,把冷量以冰的形式储存起来,在白天用电高峰时段将储存的冷量释放出来,通过“削峰填谷”的运作方式,提高能源利用效率,优化资源配置的制冷技术。
《2024年数据中心采用冷却塔间接自然冷却技术的能耗分析》范文

《数据中心采用冷却塔间接自然冷却技术的能耗分析》篇一一、引言随着信息技术的飞速发展,数据中心作为存储和处理海量数据的场所,其能耗问题日益突出。
为了降低能耗、提高能效,数据中心开始采用各种先进的冷却技术。
其中,冷却塔间接自然冷却技术因其在低环境温度下利用自然冷源实现降温的效果而备受关注。
本文将分析数据中心采用此技术后的能耗变化,以及相应的经济效益和社会环境效益。
二、数据中心现状与冷却技术选择目前,数据中心的能耗主要集中在服务器、存储设备以及冷却系统等方面。
其中,冷却系统的能耗占据相当大的比重。
传统的冷却方式如风冷、水冷等,在高温环境下需要消耗大量能源来维持设备运行。
而冷却塔间接自然冷却技术则通过利用夜间低温自然冷源,降低冷却系统的能耗。
三、冷却塔间接自然冷却技术原理及特点(一)技术原理冷却塔间接自然冷却技术利用夜间低温空气,通过间接换热的方式将数据中心内部的热量传递给冷却水,再由冷却水通过冷却塔散失到大气中。
这种方式在夜间环境温度较低时效果更佳,能够大幅度降低冷却系统的能耗。
(二)技术特点1. 节能环保:利用自然冷源,降低能耗,减少碳排放。
2. 经济效益高:降低运行成本,提高能效。
3. 适用范围广:适用于各种规模的数据中心。
4. 维护成本低:技术成熟,设备维护成本低。
四、能耗分析(一)能耗数据收集与分析为准确分析数据中心采用冷却塔间接自然冷却技术后的能耗变化,我们收集了采用该技术前后的能耗数据。
通过对数据的分析,我们可以看出,在夜间低温时段,采用该技术的数据中心能耗明显降低。
尤其是在夏季高温时段,降温效果更为显著。
(二)能耗对比分析与传统的冷却方式相比,采用冷却塔间接自然冷却技术的数据中心在夜间低温时段的能耗降低了约XX%。
同时,由于减少了风扇、空调等设备的运行时间,也降低了设备维护成本和故障率。
综合来看,采用该技术的数据中心整体能耗降低了约XX%,经济效益显著。
五、经济效益与社会环境效益分析(一)经济效益分析采用冷却塔间接自然冷却技术的数据中心,由于降低了能耗和设备维护成本,可以大幅度提高经济效益。
2024年IDC数据中心空调制冷

IDC数据中心空调制冷1.引言随着互联网和大数据技术的飞速发展,数据中心作为信息处理和存储的核心设施,其规模和数量日益扩大。
数据中心运行过程中,服务器等设备的能耗巨大,其中空调制冷系统是保证数据中心稳定运行的关键。
因此,对IDC数据中心空调制冷技术的研究具有重要的现实意义。
2.IDC数据中心空调制冷需求2.1温湿度控制数据中心内部设备对温湿度要求严格,过高或过低的温湿度都会影响设备的正常运行。
空调制冷系统需确保数据中心内部温度控制在一定范围内,同时湿度也要满足设备运行需求。
2.2高效节能数据中心能耗巨大,空调制冷系统作为能耗大户,其能效比直接关系到数据中心的整体能耗。
因此,提高空调制冷系统的能效比,降低能耗,是IDC数据中心空调制冷技术的关键需求。
2.3可靠性与安全性数据中心作为关键信息基础设施,其运行稳定性至关重要。
空调制冷系统需具备高可靠性和安全性,以确保数据中心稳定运行,避免因制冷系统故障导致的数据丢失或业务中断。
3.IDC数据中心空调制冷技术3.1直接膨胀式制冷技术直接膨胀式制冷技术是利用制冷剂在蒸发器、压缩机、冷凝器和膨胀阀等部件组成的封闭循环系统中,通过相变实现热量传递的一种制冷方式。
该技术具有结构简单、能效比高、可靠性好等特点,广泛应用于IDC数据中心空调制冷。
3.2水冷式制冷技术水冷式制冷技术是利用水作为冷却介质,通过冷却塔、水泵、冷却盘管等设备将热量传递到外部环境中。
该技术具有制冷效果好、能效比高、适用范围广等优点,但占地面积较大,对水源有一定依赖。
3.3风冷式制冷技术风冷式制冷技术是利用空气作为冷却介质,通过风机、散热器等设备将热量传递到外部环境中。
该技术具有结构简单、安装方便、适用范围广等优点,但能效比较低,适用于小型或中小型数据中心。
3.4冷冻水式制冷技术冷冻水式制冷技术是利用冷冻水作为冷却介质,通过冷水机组、冷却塔、水泵等设备将热量传递到外部环境中。
该技术具有制冷效果好、能效比高、适用范围广等优点,但系统复杂,初投资较高。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
从 热 量 来 源 来 看 , 主 要 是 设 备 发 热 量 和 室 外 传热 量 。 要减 少 室 外 传递 的热 量 可 以从 提 高 数 据 中 心 环 境 设 定 温 度 、 提 高 建 筑 结 构 隔热 能 力 、加 强机 房 密封 性 能 、减 少 太 阳辐 射 热量等 方面进 行 。 在 数 据 中心 热 负 荷 确 定 后 ,要 降 低 空 调 系 统 能 耗 , 就 需 要 从 空 调 应 用 方 案 和 空 调 制 冷 方 式 人手 。 空调 应 用 方 案 的节 能 措 施 主要
【 关键词 】数据 中心 自然冷 却 空调 P UE 节 能
1 必须 关注数据 中心 空调系统能耗
随 着 技 术 的 发 展 ,人 们 之 间 的 信 息 交 流 也 逐 渐 丰 富 ,社 会 对信 息 的需 求 和交 流 在迅 速 的 增 加 ,社 交 、微 博 、 云 计 算 也 迅 速 成 为
脚
调 的任 何 大 /和 种 类 的机 房 中使 用 ,应 用面 J 、 极 广 ,较 好 的 利 用 原 有 风 冷 机 房 空 调 的 设 备 , 共 用 了 风 机 、 散 热 器 等 部 件 , 既 可 在 新 建 机 房 中使 用 ,也 可 为 老 机 房 进 行 改 造 ,其 节 能
I ry 本 关 O e 期 注 uE s
如 何选择数据 中心空调 自然冷却 方案
文 l 艾默 生 网络 能源 有 限公 司 王前 方 张 海 涛 【 摘 要 】与信息技术 同样 日新月异的还有信息数据 ,大量的信息数据要存储 和处理 ,这推动 了数据 中
心 的 建 设 ,而 数 据 中心 的 能 耗 非 常 巨大 ,降 低 数 据 中心 能耗 非 常 重 要 , 占数 据 中心 能 耗 3 %~ 0 的 0 4%
效率 ) 的制 冷 因子 为 07 。 .4 数据 中心 能耗分 布 ,
如 图 1所 示 。
风 方 案 、机 柜 采 用冷 热 通 道 布 局 、采 用 高热
密度 设 计 、选 择 变容 量 空 调 设 备 、应 用 智 能 群 控 技 术 、加 强 日常维 护 等 。其 中任 何 一项 都 有值得 深入研 究 的 内容 。
的发展 ,能采用 的节 能措施 也越来 也 多。
2 数据 中心 空调系统 节能措施
数据 中心 空调 内主 要是大发 热量 的电子设
备 ,有 它本 身 的特殊 要 求 。如 恒 温恒 湿 控 制 、大 风 量小 焓 差 、高显 热 比 、高可 靠 性 、 冗余 备 份 、 有
少 。 近 年 来 数 据 中 心 建 设 规 模 的 扩 大 ,能 耗
空调 制 冷方 式近 年来 逐 渐 受到广 泛 关注 , 主 要 就 是 采 用 自然 冷 却 方 案 ( reCo l g ) Fe oi 。 n
26 智能建筑与城市信息 2 1 年 第3 02 期 总第1 4 8 期
_ uE s 期 注 ■Or y 本 关 e
和 化 学 过 滤 等 方面 的 成 本 ,在 很 多 地 区都 会 得
32 间接 新 风 自然 冷 却 方 案 .
为避 免 传 统 的 直 接 新 风 自然 冷 却 的 缺 点 , 可 以 采 用 间 接 新 风 自 然 冷 却 方 案 。 这 类 方 案 采 用 一 个 空 气 一 空 气 换 热 器 ,使 室 外 低 温 空 气 的 冷 量 通 过 换 热 器 传 递 给 室 内高 温 空 气 , 室 内 外 空 气 完 全 隔 离 ,避 免 因 外 部 新 风 进 入
的 不 断增 加 ,其 能 耗 也 越 来越 受 关 注 。根 据
能 源 研 究 所 的 统 计 ,2 0 0 9年 中 国 数 据 中 心 能 耗 高 达 3 4亿 千 瓦 时 , 美 国 在 2 1 6 0 0年 数
全年制冷运行等。图 2 详细描述 了数据中心 的热
量 来源 和 影 响空 调 系统 能耗 的多种 因素 。
空调 系统首 当其 冲。降低数据 中心 空调能耗 的多种方法 中 ,自然冷 却 ( rБайду номын сангаасc oi Fe o lg) 案是 非常有效 n 方 的一种 。 自然冷却有 多种 方案 , 应该如何选择 , 需要考 虑的哪些 因素?本 文通 过对 自然冷却方案 的分析 ,
提供 了选择建议和参考 。
数 据 中心 是 信 息 存 储 、交 互 、 处 理 的地 方 , 是 容 纳 计 算 机 设 备 、 服 务 器 设 备 、 网络 设 备 、 存 储 设 备 的 物 理 空 间 , 为 了 保 证 大 发 热 量 的
电 子 设 备 的 可 靠 运 行 ,机 房 空 调 系 统 必 不 可
无 论 从 减 少 对 能 源 的 消 耗 ,还 是 降 低 数 据 中心 的 运 行 成 本 获 取 商 业 价 值 的 角 度 ,都 需 要 降 低 数 据 中心 的 能 耗 ,空 调 就 是 重 要 的
一
环 。 而 且 随 着 近 几 年 来 数 据 中心 空 调 方 案
热 门词 汇 ,从 而 也 带 动 了 数 据 中心 的建 设 。
不偿 失 ,所 以需要认真核算 投资 回报率 。 目前
在 国 内 仅 仅 有 几 个 数 据 中心 在 进 行 相 关 的 尝 试 和 试 点 。 如 果 想 进 一 步 提 高 直 接 新 风 冷 却 的 效 率 ,可 以在 新 风 冷 却 的基 础 上 增 加 喷 淋 段 ,采 用 蒸 发 冷 却 的原 理 降 低 空 气 温 度 。
包 括 采 用 高 能 效 空 调 机 组 、选 择 最 优 空 调 送
据 中心 的能 耗 高 达 1 0 0 0亿 千 瓦 时 ,预 计 到
21 0 1年 中 国 的 数 据 中 心 总 能 耗 将 超 过 5 0 0 亿 千 瓦 时 。 据 E P报 告 , 数 据 中心 能 耗 中 的 Y 3 % 被 空 调 系 统 消 耗 ,此 时 P E ( 源 利 用 7 U 能