IDC数据机房节能减排的技术教学教材

IDC数据机房节能减排的技术教学教材
IDC数据机房节能减排的技术教学教材

IDC数据机房节能减排的技术

IDC即为“互联网数据中心”,在快速发展的进程中,要发挥其应用价值,就要提高服务器的数据处理能力,数据存储设备和网络设备的信息容量增加,对于电能的消耗量增大。所以,企业在运行的过程中,所使用的电量就会有所增加。采用节能减排技术,可以降低IDC机房的运行成本,企业的市场竞争力也会有所增加,确保安全安全可靠地运行。本论文针对IDC数据机房节能减排的技术进行分析。

IDC是基于互联网构建起来的数据中心,通过运行专业网站,就可以为企业、网站以及媒体提供服务,由于数据信息传输质量高,而且数据容量规模大,因此得到了广泛的应用。IDC所提供的业务非常广泛,包括宽带批发业务、空间租用业务以及服务器等等。IDC数据机房中,各种设备都可以集中放置,空间有限,释放大量的热量。为了降低IDC数据机房的能源使用量和排放量,就要采取节能减排措施。

机柜的散热方式要合理

IDC数据机房中所安装的发热设备并不与散热设备之间相对应,其热量排放的?^程是通过机柜内部的气流来完成的。在对机房内部的设备进行布局的时候,要对空调系统充分了解,对释放热量多的设备在室内分布要均衡,对于机柜的送

风设计可以采用下送风的方式。如果机柜的发热量非常大,送风就需要单独进行。机房需要具有很高的制冷效率,这样就可以使得机房运行中,能源消耗量有所降低。设备的发热量非常大,就要将其布置在靠近空调的位置,最好对着出风口,确保机柜的冷量。

选择合适的供电设备

在供电设备的选择上,要符合实际需要。原有的不间断电源系统被240伏的高压直流系统所取缔,当电源系统处于低负荷运行状态的时候,就会发挥很好的能源节约效果,系统运行的总有效率可以提高15%左右。从经济的角度而言,供电系统的运行是会消耗一定量能源的,适用于耗费能源的冗余供电系统。但是,冗余供电系统依然会被用于IDC数据机房中。交流设备所输出的电流需要经过2次交流转变为直流电流之后,才可以达到设备端。供电系统的能源消耗量也会有所增加。目前,IDC数据机房的供电多会采用不间断电源系统,这种设备的能源消耗量大,而且所产生的谐波量也非常大,这就必然会污染到供电系统。这就需要在设备的选择中,根据IDC数据机房的需求购进低能耗的设备,而且要求设别就有技术扩展性,是降低IDC数据机房的能源消耗量。

运用精确送风技术

IDC数据机房在运行中要降低能源消耗,减少排放量,

通常会采用精确送风技术,以实现温度自动控制,达到精确制冷的效果。精确送风的智能化运行,就是应用智能技术,对于系统的运行使用计算机操作,以使得精确送风技术符合时代环境更好地发展。对机柜进行精确控制,就是要动态化地监测机柜后面的排风温度,对于相关数据的分析可以使用前端控制器完成,通风地板可以应用自动化技术自主地调节和控制送风量,以使得送风更为精准。

精确制冷技术实现智能化操作。精确制冷技术采用智能化技术,可以对各个设备的温度减低程度进行动态化检测,同时对于空调送风温度和回风温度都能够有效监测。IDC数据机房应用节能减排技术,更多的是关注精确制冷技术的动态运行状态,通过采用智能化技术,可以确保空调的能源消耗处于良好状态,设备也会获得最佳的降温效果。

自应用动温度控制技术。IDC数据机房的资金运行顺畅,就可以在设备上安装温度传感器和温度控制系统,将系统与计算机连接,按照设定的程度对设备的温度进行有效控制。自动温度控制技术是IDC数据机房节能减排技术中的关键,其运行原理是将温度传感器安装在IDC数据机房设备上,连接制冷设备,就可以调节控制DC数据机房的散热。当温度控制系统运行中接受到温度信息,就能够将这些信息传输到控制中心,基于此作出决策之后,就会发出控制温度的指令,对温度有效控制,由此可以起到能源消耗节约的作用。

机房的热管理要进一步强化

机房耗电中,制冷耗电量是非常大的,机房的热管理进一步强化,重点就是对制冷系统的运转实施有效管理。主要为以下方面。

采用上回风、下送风的热管理方式。采用上回风、下送风的热管理方式,回风是热风,由于比重轻而上升,但是,不会与冷风混合,就会产生相互不干扰的效果。要对热量有效控制,对于机柜摆放可以采用面对面方式或者背靠背的方式,冷风和热风的通道就会自然形成。热量可以限制在热风通道中,可以得到有效控制。

对机架内部的气流运行方向进行规划。气流运行要顺畅,就需要在机架中设置一个通道,使得冷风可以上升,由此可以防止向下的冷风被阻挡,气流的运行不可以出现紊乱的现象,所以,机架中不可以有大片的空位。要阻止热风回流,将挡板放在机架的空位是非常有效的。

对于电能要严格限制。对于电能要严格限制,可以避免产生热量集中点。要启用机架电流的额定值,可以对电量进行限制,可以降低高密度机架产生的几率。计算机产业的快速发展,就会有高密度机架产生,这就需要采取有效的策略。

综上所述,工业发展的未来方向就是降低排放量,有效控制能源的使用量。信息时代,运行IDC机房的过程中,就要采用新型技术和能源节约技术,选择能源消耗量地的设

备,以真正意义地达到能源节约的目的,IDC机房的运行效率也会提高,由此实现了排放量降低的目标。

(作者单位:广东省电信规划设计院有限公司)

数据中心能效研究报告

中国数据中心能效研究 报告

前言 数据中心是我国实现经济转型升级的重要基础设施,提供的巨大 数据处理能力是国家战略资源,是实现智能制造、互联网+、物联网、云计算、大数据等技术和应用的基础保障,同时因其巨大的能源消耗和对环境的影响使绿色数据中心成为中国制造2025 中绿色制造中的重点领域。数据中心在我国未来一段时期内将持续快速发展,同时需进行有效管理实现其低碳绿色可持续发展。 数据中心是提供数据计算、存储、交换等资源的服务和其他应用 服务的电子信息基础设施,具备以下特点和作用: 1)是支撑经济转型的重要电子信息基础设施和服务平台 数据中心是提供大规模数据交换、计算、存储等功能的核心基础设施,是满足大规模数字化、网络化、虚拟化和智能化需求的核心节点,是政务、金融、商务、制造、科研和民生服务等活动开展的重要保障。因此数据中心是我国开展经济转型的关键配套和支撑基础设施和服务平台。 2)是支持科技发展和创新的重要载体 数据中心是提供计算等能力的资源池。智能制造、物联网、云计算、大数据等新兴技术和应用以及科学研究等方面的发展和创新都需要以海量数据处理为基础,需要大量调用计算资源开展。数据中心的

核心任务之一就是承载该方面的需求。 3)是信息安全的关键节点 数据中心作为海量数据集中处理的物理设施和平台,由于其在信息链路中的核心作用必然成为信息安全的关键节点。数据中心的安全除信息安全技术领域外还包括计算机机房的物理环境安全。IT 系统无法规避由于运行环境不能满足要求而导致的功能丧失。 4)是节能重点对象 数据中心耗能巨大,对资源需求多样。根据美国能源局的统计数据中心的年耗电量已经占美国年发电量的 1.5%,据估算我国数据中心的年耗电量占比与美国基本相当,已经达到三峡的年发电量。依据对我国全国范围内7000 多家数据的耗电量的调研,不考虑规模前提下,数据中心单体年均耗电量超过一百万度。数据中心在大量耗电的同时也消耗大量水等其他资源。 在新常态下我国的数据中心领域的发展存在着挑战又有着机遇。从人类社会经济的总体发展历程来看经历了从农耕经济到工业制造经济到技术经济再到信息经济的基本过程。在以德日为代表的技术经济受到美国为代表的信息经济的巨大挑战后,如何加强信息化和工业化的深度融合,使信息经济红利可以反哺回制造业等实体经济,这是我国乃至世界范围内共同面临的课题。我国也明确提出了中国制造

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

数据中心机房空调节能方法研究

东北石油大学 Tianjin University of Technology and Education 毕业设计 专业******** 班级学号: ##### 学生姓名:######## 指导老师:######### 二○一四年六月

东北石油大学本科生毕业设计 数据中心机房空调节能方法研究Research on energy saving of air conditioning based data center 专业班级:##### 学生姓名:### 指导老师:#######教授 学院: 2014 年6月

摘要 针对数据中心空调系统能耗比例过高问题开展了一系列调研,指出了目前国内数据中心空调系统使用中存在的问题,针对这些问题从空调设备节能、气流组织优化和自然冷源合理利用三方面分析了相关的节能方法与手段,为数据中心空调系统的节能设计与改造提供参考和依据。 本课题是利用其Fluent软件对数据中心空调系统的节能优化操作,该操作主要是对空调进行温度、湿度的参数调节,实现其数据中心机房的主控对空调的节能的具体的参数调节。 关键词:数据中心;空调系统;节能;Fluent软件;

ABSTRACT For data center air-conditioning system energy consumption high proportion problem has carried out a series of research, points out the problems existing in the use of domestic data center air conditioning system, to solve these problems from the air conditioning energy conservation, air distribution optimization and rational utilization of natural cold source three aspects analyzes the related energy saving methods and means, for the data center of energy-saving design and renovation of air conditioning system to provide the reference and basis. This topic is using the Fluent software for data center air conditioning system energy saving optimization operation, the operation is mainly to adjust the parameters of the temperature, humidity and air conditioning implement its master data center room of air conditioning energy saving the specific parameter adjustment. Key Words:The data center;Air conditioning system;Energy saving;Fluent software;

大型数据中心空调制冷系统的节能技术研究

大型数据中心空调制冷系统的节能技术研究 发表时间:2019-10-24T14:39:39.913Z 来源:《基层建设》2019年第22期作者:蒋广才[导读] 摘要:近年来,我国的暖通空调系统有了很大进展,大型数据中心空调制冷系统的构成复杂,使用时耗能大,以环保为核心的大趋势下,节能是各类系统优化的基本方向。 山东科灵节能装备股份有限公司山东潍坊 262100 摘要:近年来,我国的暖通空调系统有了很大进展,大型数据中心空调制冷系统的构成复杂,使用时耗能大,以环保为核心的大趋势下,节能是各类系统优化的基本方向。本文分析了大型数据中心空调制冷系统的节能技术应用,提出了促进系统综合性能的优化及强化的措施,仅供参考。 关键词:空调制冷系统;节能技术;节能要点引言 目前在我国暖通空调系统当中所应用的节能环保技术正在不断的发展和进步,在保证能源消耗不再增长的基础之上,可以使暖通空调系统具备除湿、制冷、制热等不同的功能,从而能够实现对二氧化碳排放量的有效控制,降低温室效应,提高能源的利用效率。 1、大型数据中心空调制冷系统的特点 大型数据中心具有三大基础资源:机房空调建设,空调制冷,电力供应,占地面积为几万平方米。为了保证三大基础资源平衡,同时达到较高的资源利用率,通过调整电力供应资源和制冷资源来平衡整体资源匹配程度。单栋数据中心能耗占成本的76%,建设成本中制冷成本占21%,所以对数据中心的制冷节能是必要的。维修与维保两个降低能耗的方式,可以提升全生命周期,可以按时的掌握设备的工况,能够迅速地检测设备故障,高度的管理性是数据中心不可或缺的必要因素。 2、影响空调制冷能耗的主要因素 产品的设计、选型及安装决定了制冷系统的工作效率,主要的影响因素有以下几点:第一,换热温差。一般而言,蒸发器内制冷剂蒸发的温度低于大气中的温度,才能将热能转给制冷剂吸走,并且保持压力平衡状态。第二,膨胀阀开启度。根据过热度进行定期检测,不断校准,使其过热度保持在合适的范围内。第三,制冷产品应用范围越来越广,且能耗巨大。随着社会的不断发展,制冷空调应用于企业、商场、学校、住宅等领域,耗能急剧增加。第四,选用高效能的压缩机及蒸发器冷凝器结构及换热面积的优化配置,高效换热材料的应用。第五,制冷系统安装工艺的改进提高等。第六,先进电气控制系统的应用等。 3、大型数据中心空调制冷系统的节能技术 3.1可用度分析 数据中心的主要应用目标是用于对组织运作的数据进行处理。这样的系统可以从软件企业购入,也可以由组织内部进行独立开发。一般情况下通用的系统包括了企业资源计划和客户关系管理系统。整个数据中心的服务倾向综合性服务。这样的系统一般由多个主机构成,各个主机的运行都是独立的,掌管单一的节点,包括数据库、应用服务器、文件服务器、中间件等等。此外数据中心也经常用于对非工作站点完成备份。这些备份通常与备份磁带共同使用。将本地服务器信息录入磁带。除此之外磁带的存放也易受环境的影响。规模较大的公司,可能会将备份的系统信息传递到非工作空间。并且借助数据中心完成回投。备份在经过加密之后,可以通过互联网被发送到另一个数据中心当中,得到妥善保存。为了达成受影响后恢复的目标,许多硬件供应商都提供了新的解决方案,以保证短时间内的可操作性。包括思科系统,美国太阳微系统公司的Sun微系统,IBM和惠普公司共同开发的系统,都是创新性的解决方案。在实际的系统应用过程中,因为可用度关乎空调系统的质量,因此冷却水泵、冷却塔及冷水机组的可用度等,都关系到厂家。在自然冷却的情况下,设备的群组串联方式相对来说有更强的可用性。 3.2可维护性比较 由于机房具有一定复杂性,随着业务的发展,管理任务必定会日益繁重。所以在机房的设计中,必须建立一套全面、完善的机房管理和监控系统。所选用的设备应具有智能化,可管理的功能,同时采用先进的管理监控系统设备及软件,实现先进的集中管理,从而迅速确定故障,提高运行性能、可靠性,简化机房管理人员的维护工作。 3.3可管理性与节能性的比较 可管理型的衡量应首先从冷热通道的控制去分析,因许多用户会使用塑料板去隔离冷热空气,进而确保冷却的效率得到提升。冷热通道控制这一手段的应用能够确保数据中心的冷却效率有百分之十五左右的提升。实际转换成电力消耗的数值,在服务器数量五百,每度电费五毛的前提下,每年约省电费的数额为七万两千元。但是依照当前的运行成本及系统概况来看,因涉及许多环节的操作,所以这样的处理需要面对较大风险。近年来随着冷水机组制冷效率的不断提升,制冷过程当中水泵的耗能占比也更高,甚至能够达到整个系统能耗的百分之十五到百分之三十五,在设备群组模式下,调节水流量与扬程的方式更多,能够达成多台水泵的同步变频,并且对变频水泵的台数进行控制。在多冷源并联模式下是无法对台数进行控制的,所以设备群组方式的优势更为明确。 4、关于暖通空调系统的空调制冷管道的安装管理技术与安全对策 4.1制冷管道的敷设方式 制冷系统的排气管要设置在吸气管上端,两管设置在同一水平支架上,同时两者要确保在一定的距离,以确保避免出现吸气管道与支架直接接触产生相对应的冷桥问题。同时也要着重根据相关情况,把一个油浸过的木块放到管道之间的空隙缝内。敷设制冷剂的液体与气体管道在应用方面要与既定的设计要求相符合,用顺流三通接口。针对制冷管道弯道的设计,要用冷报弯设计,因为这样可以很大程度上有些要减少管内的秽物。针对地下敷设进行划分可以划分为三种情况,分别是:通行地沟敷设、半通行地沟敷设以及不通行地沟敷设。大多数时候都要进行通行地沟敷设的地沟的设置,冷热管要敷设在同一个通行地沟内部,低温管道的敷设要与其他管道有足够的距离,同时要设置在其他管道的下边。半通行地沟高度要稍微低于通行地沟,高温管与低温管不可以在同一个地沟内敷设。 4.2高效能的压缩机换热技术 制冷空调的核心技术是压缩机,提高压缩机的工作效率,不断改进结构,控制能耗,将传统的活塞式、旋转式压缩机逐渐用涡旋式压缩机,高效螺杆式压缩机及磁悬浮离心式压缩机取代并采用变频控制。选取优质的材料,使得压缩机传热效果增强,增加换热接触面积,提高换热性能,使热量及时排放有效地增加效绩。

APC-如何确定数据中心的节能减排目标

PUE
设立切合实际的期望值
理解 理解PUE PUE的测量,分析工具和流程 提升PUE最佳方法
Victor Avelar先生 施耐德电气美国电力转换公司 高级 究分析师 高级研究分析师 Steven Carlini先生 施耐德电气美国电力转换公司 部高级总监
? 2009 APC by Schneider Electric
数据中心科学中心
数据中心全球解决方案

PUE赛马
典型的数据中心
极端的PUE目标
信息来源 …
● Google 1.12 ● 微软“数据实验室” 1.24 ● 微软第4代数据中心(PUE目标) 1.12 1 12 ● 大型数据中心的 1.08 高级设计师 1 06 1.06
1.046
PUE 报告 …
就是我们 要做的!
让我们看看他们是怎样实现的….
? 2009 APC by Schneider Electric

5个关键的PUE概念
什么是PUE合适的期望?
1● 它可以通过合理的方式和标准公式计算获得 2● PUE的 比较是困难的
有效的PUE比较是严格依赖于共同的术语和假设来进行的
● PUE 以数学为基础
PUE应该包含大楼基础系统中被数据中心使用的部分 3● 真正的 大楼共用的这部分经常被忽略,而这些是需要公平的分配到数据中心运行中去。 冗余使PUE变得更糟 4● 冗余电源和制冷系统能降低 余电源和制冷系统能降低PUE,因为冗余造成负载率降低。 因为 余造成负载率降低
5
● 你的电费账单和效率(PUE)不是一回事
两者是反比例关系,你可以合理的做出设计上的决定 两者是 例关系 你 做 设计 决定
公平比较 不要忽视隐含的电气损失 公平比较,不要忽视隐含的电气损失
? 2009 APC by Schneider Electric

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

1-数据中心空调系统设计与节能优化分析

数据中心空调系统设计与节能优化分析 引言 现代科技的发展对IT、电信企业的要求逐步提高,为了满足市场要求和行业竞争,企业必须不断投入人力物力进行硬件加强,随之,研发大楼越建越多,研发中心的核心之一——数据中心的规模也在逐步扩大。据Jonathan Koomey博士(美国斯坦福大学和伯克利实验室教授)的一份研究报告统计,自2000年到2005年,全球数据中心能耗翻了一番,2005年美国所有数据中心的电耗是450亿kwh,其中包括了数据中心IT设备、空调制冷设备及其辅助设备的耗电量,直接产生的经济费用为27亿美元,由此估计全球数据中心的能耗所产生的费用为72亿美元。根据美国Uptime研究院的分析,数据中心的电耗增长迅速,以每年15%的速度增长,到2005年已经达到了18000 w/(平方米机柜占地面积)。从2000年到2001年,仅一年时间,机柜能耗就增长了1100 w/(平方米机柜占地面积)。数据中心单位面积能耗可由机房总能耗以机房面积得到。 如何以最节能的方式保证系统的稳定运行成为了空调设计师的首要任务。本文针对上海某IT企业研发大楼的4个数据中心进行分析。 1、数据中心概况 该IT企业大楼位于上海郊区某科技园区,共5层,建筑面积约为25 000平方米,本文研究的数据中心位于该大楼5层中心位置,呈长条形布置,4个数据中心的面积分别为286,164,104,144平方米。数据中心的正上方屋顶上设有1.8 m高的平台,用于放置大楼的空调处理设备,平台下则放置了与数据中心有关的排风设备以及用于数据中心全新风制冷的新风百叶,既保证了设备的隐蔽性和安全性,又防止雨天或者其他特殊天气对数据中心空气调节带来的影响。 2、空调系统设计 2.1数据中心房间设计温湿度

数据中心工程中暖通系统节能措施的分析与研究

数据中心工程中暖通系统节能措施的分析与研究 摘要:随着中国经济的迅速崛起,信息化、网络化的时代快速到来,数据中心 的规模越来越大、服务器的发热密度越来越高,与之伴随的则是能源消耗的陡然 升高。概述了目前数据中心工程设计时主要的暖通系统,逐一分析目前采用较多 的节能措施特点、应用条件等,讨论了一些应用较少或较新的节能措施。 关键词:数据中心;发热密度;节能措施 一、引言 随着中国经济的迅速崛起,信息化、网络化的时代快速到来,作为信息化的 基础设施,数据中心的规模越来越大、且服务器的发热密度越来越高,与之伴随 的则是能源消耗的陡然升高,节能变得刻不容缓,从IT设备自身对周围环境的要 求出发,制定一个系统的、有针对性的、安全的、节能的暖通空调系统方案成为 暖通专业设计人员的主要目标。在2006年以前,单个数据中心的规模还很小, 大多数均在2000m2以下,且单机柜发热密度也很小,采用的冷却方式一般为直 膨式的机房专用精密空调,其特点是控制精度高,在寒冷地区能全年运行,使用 寿命较一般舒适型空调长,但价格昂贵。2006年后,数据中心的规模越来越大,单个数据中心的面积达到上万平方米,如果还按照机房专用精密空调作为冷却方式,评价其节能效果的重要指标PUE(Power Usage Effectiveness)至少在2.0以上。 所以,这种冷却方式在规模较大的数据中心中会使得整个运行过程的电费大 幅升高。针对这种情况,目前的普遍做法是用冷冻水系统代替直膨式精密空调, 以冷冻水系统(一次泵或二次泵均可)作为基础,针对不同的气候参数、可利用场地、平面布局等条件又细分为多种形式,例如冷源可以是风冷冷水机组,也可以 是水冷冷水机组;空调末端可以是精密空调也可以采用组合式空调,且组合式空 调还可以采用热回收式机组等。本文主要从节能的角度出发,重点阐述可行的节 能措施,针对具体工程,可根据实际情况选取合理的节能措施形成一个完整的、 有针对性的空调系统。 二、数据中心机房环境要求 数据中心主要是给服务器、存储等设备提供一定的运行环境,服务器等设备 均是处于全年不间断运行中,对于运行环境要求非常,涉及温度、湿度和空气洁 净度。一般机房机柜区域或冷通道温度设置在24℃左右,湿度40%到65%,空气 洁净度要求每立方空气中大于或等于0.5μm的悬浮粒子数少于1760000粒,如果 空气中存在的硫化物、氮氧化物以及腐蚀性气体也会对于服务器等设备产生非常 大的伤害。 相关统计数据显示,数据中心每年每平方英尺能源成本是普通办公室的十倍,其中暖通系统能耗最大,可见暖通系统能耗的严重性。导致数据中心暖通系统能 耗高的因素有很多。首先,从新风处理角度来看。一些数据中心建设中,忽视了 对自然因素的利用,不能新风处理能耗大,且处理效果不理想,导致新风处理过 程中能耗问题突出。此外,一些数据中心规模扩大、设备增多,却没有合组织气流,结果造成冷风与服务器的热风混在一起,严重制约了暖通系统功能发挥,导 致能耗严重,更给设备运行造成了不利影响。另一方面,一些数据中心缺乏相应 管理制度,没有设置隔离门,造成数据中心与外界空气环境交换过于频繁,导致 数据中心内部湿度、温度与实际需求偏差较大,就会加大暖通系统整体能耗,更

数据中心机房的基本节能减排工作

数据中心基础设施的可用性问题,最初是由IT厂商提出的,如IBM提出的“随需应 变”(OnDemand)、HP提出的“动成长企业”(AdaptiveEnterprise)等概念,它们都推崇“逐步升级”的扩展模式,来替代“一步到位”的建设模式。全球经济环境变化的加剧,正是用户对可扩展性的要求逐渐提高的根本推动动因。 数据中心由两个层面组成——IT层面和机房设施层面。机房设施的扩展性需求,是IT 层面的扩展性对运行环境的灵活性的诉求。与IT层面的扩展性相比,机房设施的可扩展性实现起来更困难一些,就好比前者是家具,后者是房间。 机房设施的扩展方式,或称扩容方式,从目前国内的情况看,“一步到位”的方式与“逐步升级”的方式,都因用户需求各异而共存着。实际上,这两种方式确实各有千秋。从机房设施的工程实践上看,前者易、后者难;从投资风险上看,前者大、后者小;从投资、运营的过程和管理上看,前者简便、后者繁琐。所以,对于业务相对稳定的企业用户,更愿意选择前者;而业务发展迅速或市场风险高的企业,则更愿意选择后者,即对机房设施的可扩展性要求高,希望“随需应变”。 用户对机房设施“随需应变”的要求,对机房的规划、设计、设备选型、运行维护等四个环节及电源、空气调节、防雷、机柜、监控等五个子系统(有时将防雷纳入电源子系统)提出了挑战。 一、规划 在规划环节,首先需要在数据中心机房选址问题上考虑扩展性的要求,包括对面积、楼层位置、楼层净高、地面载荷等方面的要求。 如果决定采用单一房间,显然要考虑未来扩容时的IT设备及机房设备的面积需求;另外可行的方案是,扩容时占用其他房间——在这种情况下,需要同时对欲占用的房间进行同样的结构评估,包括楼层位置、楼层净高与承重。 楼层位置主要影响空调室外机房的放置问题。一般情况下,空调室外机与机房的垂直距离不宜超过15米,所以机房的选址楼层多选在距离楼顶、底层或设备层较近的楼层,并在楼顶、底层或设备层中预留足够的空间,以备未来机房空调系统扩容时,安装空调室外机。 如果未来扩容时计划不扩大机房面积,而是增大机房内的设备密度(或机架数量),则必须考虑未来的设备重量与机房地板承重。 二、设备选型 设备选型环节应考虑的问题很多,以下分为子系统来讨论。 1、供电子系统 从供电子系统来看,需要考虑包括UPS、供电线路、配电线路等在内的整体的可扩展性。

(完整版)数据机房专用空调能耗评估与分析

数据中心能耗指标 1. PUE PUE ( Power Usage Effectiveness,电能利用效率)是国内外数据中心普遍接受和采用的一 种衡量数据中心基础设施能效的综合指标,其计算公式为: PUE = P Total / P IT 其中,P Total 为数据中心总耗电,P IT 为数据中心中IT 设备耗电。 PUE 的实际含义,指的是计算在提供给数据中心的总电能中,有多少电能是真正应用到 IT 设备上。数据中心机房的PUE 值越大,则表示制冷和供电等数据中心配套基础设施所消耗的电能越大。2. pPUE pPUE(Partial Power Usage Effectiveness,局部PUE)是数据中心PUE概念的延伸,用于对数据中心的局部区域或设备的能效进行评估和分析。在采用pPUE 指标进行数据中心能效评测时,首先根据需要从数据中心中划分出不同的分区。其计算公式为: pPUE1= (N1+I1) / I1 其中, N1+I1 为1 区的总能耗, I1 为1 区的IT 设备能耗。 局部PUE 用于反映数据中心的部分设备或区域的能效情况,其数值可能大于或小于整体 PUE,要提高整个数据中心的能源效率,一般要首先提升pPUE值较大的部分区域的能效。 3. CLF/PLF CLF( Cooling Load Factor)称为制冷负载系数,PLF( Power Load Factor)称为供电负载系数)。CLF 定义为数据中心中制冷设备耗电与IT 设备耗电的比值;PLF 定义为数据中心中供配电系统耗电与IT 设备耗电的比值。 CLF 和PLF 是PUE 的补充和深化,通过分别计算这两个指标,可以进一步深入分析制冷系统和供配电系统的能源效率。 4. RER RER( Renewable Energy Ratio,可再生能源利用率)是用于衡量数据中心利用可再生能源的情况,以促进太阳能、风能、水能等可再生,无碳排放或极少碳排放的能源利用的指标。 一般情况下, RER 是指在自然界中可以循环再生的能源, 主要包括太阳能、风能、水能、生物质能、地热能和海洋能等。 专用空调系统能耗评估与分析 冷源的效率 能耗分析:

高效数据中心的六大绿色节能措施

高效数据中心的六大绿色节能措施 和一两年前相比,很多数据中心的运营者们如今也并未热衷于“绿色”这个词。这当然不是说他们已经抛弃了旨在提升能源效率,更好地利用IT资源的各种项目,因为这些项目既可以削减运营成本,又能减少对环境的影响。 市场咨询公司451集团在考察了被大批组织和机构所接受的可降低数据中心运营成本的六种绿色实践之后,发布了一份内容全面的报告:《高效节能的数据中心实践》。其中的一些实践做法,如进行数据中心的全面规划,寻找可替代传统制冷系统的方案等可能早已被大家所熟知;其他做法,如采用直流供电和预制件数据中心等,则很少有人谈及,或者被认为不可持续而不予理会。 在计划升级其设施时,数据中心的运营者们应该好好考虑或者重新考虑一下这些趋势。当然,并非所有这些实践都适合每一个组织,但如果你不去看看,那你就有可能永远都不知道有这些实践做法存在。 实践1:采取综合的可提升整体效率的方法 数据中心运营者需要通过结合了集成技术和各种手段全面处理效率问题的方法,而不能孤立地去对待每个项目。这其实并不是什么开创性的概念:绿色网格组织从2008年成立以来就一直在提“通盘考虑”的口号。而这样做的最大好处之一就是可以促进各部门间,尤其是设施部门和IT 部门间的协同,确保所有的参与者在对数据中心进行升级改造时能够意见一致。举例来说,IT 部门订购了一个用于关键任务项目的高端服务器机柜,那么他只需要在机柜到达数据中心时打听一下是否有足够的电力或冷却能力支持这个机柜便可。 组织内的协作并未到此结束。为了努力减少能源浪费,很多企业部门之间如今已越来越开放,曾经是各部门最隐秘的东西也可以公开。这方面最有名的例子就是Facebook,利用其开放计算项目,该公司有关高效服务器、机柜和冷却设备的蓝图也都在开源。 实践2:更智能的冷却系统 数据中心运营者们正逐渐意识到,数据中心设施并非存放肉类的大冰柜,只需要适当制冷即可。虽说IT管理人员不希望设备因过热而失灵。但如果你花在IT上的每个美元都得分出50美分用于制冷的话——这正是很多传统数据中心的平均PUE比值——那几乎可以肯定你是在烧钱。 有好多种办法可以降低冷却成本,其中一些技术始终不被企业所接受,生怕会毁掉他们的宝贵硬件。这其中就包括液体冷却技术,该技术被认为会产生很多维护方面的问题,而且使用范围有限。但是来自绿色革命冷却公司的一种液体冷却方法采用了低成本、无污染的绝缘液体,据称其吸热能力是空气的1200倍。 至于空气冷却这种免费冷却方法则要比液体冷却更受欢迎。这个概念也很简单:只要把数据

数据中心机房节能简析

数据中心机房节能简析 贾骏 吕捷 王众彪 工业和信息化部电信研究院 邮电工业产品质量监督检验中心 摘要:本文阐述了数据中心机房的主要能耗分布情况,并从数据设备、电源系统、空调系统、机房气流组织几个方面介绍了机房降耗的主要方式。 关键词:数据中心 UPS 气流组织 1、数据中心机房概述 数据中心是为集中式收集、存储、处理和发送数据的设备提供运行维护的设施以及相关的服务体系。数据中心提供的主要业务包括主机托管、资源出租、系统维护、管理服务,以及其他支撑、运行服务等。 本文所提到的数据中心机房,是指承载数据中心业务的基础设施,一般由核心业务机房、UPS机房、电池室、空调机房、柴油发电机房等构成。 我国数据中心市场发展迅速,根据赛迪顾问年度报告,2010年中国IDC市场规模达到102.2亿元。我国2005年以来数据中心市场发展的趋势如图1所示。 图1 我国IDC市场发展趋势 2、数据中心机房能耗分布 2010年我国数据中心资源投入占总投入将近30%,维护成本占总投入近15%。[1]2010年我国数据中心运营成本分布如图2所示。

图2 2010年中国IDC公司最高运营成本分析 数据中心机房能耗主要分为服务器/网络设备能耗、制冷能耗、供电系统能耗、照明和其他能耗。根据EYP Mission Critical Facilities所提供的数据,50%的数据中心用电量是被服务器/网络设备所消耗。制冷系统是数据中心内第二大能耗系统,其耗电量占数据中心总耗电量的37%。供电系统占10%,照明和其他占3%。[2] 3、数据设备降耗 数据设备是承载数据中心的业务核心设备,同时也是耗电量所占比例最大的设备。根据亚马逊JamesHamilton的研究,数据中心服务器硬件所消耗的电力的费用约占57%。针对不同规模的数据中心,该费用比例是不同的。2010年我国数据中心规模分布如图3所示。 图3 2010年中国IDC公司的机房服务器数量 服务器是数据中心最为常见的设备。使用高效低能耗的服务器是数据设备降耗的关键所在。Standard Performance Evaluation Corporation(SPEC) 是一个全球性的、权威的第三方应用性能测试组织,它制定了一系列的规范来评定服务器应用性能。可以根据SPEC的测试值评定服务器的效能/能耗,以此作为选购服务器的参考。另一个评定标准是能源之星的服务器标准,符合能源之星标准的服务器要比旧式服务器多出30%的能源效率。 对于网络设备,可以使用TEEER值以及ECR/EER性能能耗比评估法进行节能分析。 4、电源系统降耗

数据中心节能改造的7种解决方案图文【最新版】

数据中心节能改造的7种解决方案图文 点评网()报道:随着计算机网络业务量的迅速增长、服务器数量的增加,机房的面积及规模也在不断扩大,数据中心的能耗成本也迅速增加,并有赶超硬件成本的趋势。据权威机构调查显示,我国每年用于服务器的电源和冷却的总开支超过了20亿美元。对于已经建成投产的数据中心,如何实现有效的节能改造,需要从多方面考虑。本篇介绍了数据中心基础设施节能改造的几种主要解决方法。 一、设计一套机房整体监控系统 图IT设备负载变化曲线 从机房负荷和空调冷量配置来看,机房一般设计为N+X的安全运行模式,但从整个机房IT设备布局来看,由于机房面积较大,考虑其循环风量及减少机房局部温度死角等问题,及负载设备功耗的动态变化,精密空调群无法做到人为控制按照需求运行,机房发热量变化

无规律可以遵循,所有室内风机全速运行,压缩机由每台空调独自按照自己的需求进行控制,此种运行模式从运行费用角度来说是不经济节能的。如果强制空调群中的冗余设备进行关机运行,由于机房气流组织及温度变化规律很难掌握,人为控制空调的开机与关机也很难做到机房安全,因此可能存在局部温度不可控的现象。因此,机房精密空调群控対机房节能起到至关重要的意义。 机房专用空调群控节能的思路是:在保障机房设备正常运行的前提下,通过减少冗余空调设备的运行时间,来降低整个机房的能耗,实现空调系统的备份/轮循功能、层叠功能、避免竞争运行功能、延时自启动功能。 结合曙光自适应集群功率与能耗监控系统,进行精密空调集群集中管理,管理软件根据CPU占有率计算每一排的服务器功耗,根据负载分布情况及精密空调分布情况精确控制相应位置空调的工作状态,其中主要包括压缩机的启停和空调室内机的风扇启停。精密空调通过RS485网络与协议转换器通信,协议转换器通过以太网与管理节点协同工作,这样使不同厂家的精密空调(具有监控功能)能够通过曙光标准协议接口与管理节点进行数据交互每个服务器机柜内安装两个无线温湿度探头,每排机柜构成一个网络,通过物联网的组网方式形成一个温湿度监控网络,并通过以太网将数据上传至管理节点,形成双层监控网络,在监测到服务器到温的时候,开启机房空调,在节能的

节能减排技术在数据中心的应用研究

节能减排技术在数据中心的应用研究 字号:小大2012-03-19 09:54来源:IT商业新闻网我要评论(2) 随着信息全球化,在全世界范围内数据中心被大量建立,数据中心的能耗及所产生环境问题成为人们关心的重点。据报告,一个典型数据中心所需要能量可供3万个家庭使用。最近就有人指责,在google中每进行两次搜索就会生产15克二氧化碳,所消耗能量大约与烧开一壶水能量相当,但据google称,每做一次搜索会产生0.2克的二氧化碳。从数据调查情况来看,从2006到2007年数据中心能耗增长了超过13%,其费用支出从2000年以来增加了一倍,预计到2012将达到40万亿。 随着全球气候变化,人们越来越重视对环境的保护,对各种产品(汽车、空调、冰箱等)的能耗标准都有明确要求,但数据中心能耗标准还没有制定,企业只是感觉到数据中心所消耗电能越来越多,维护数据中心成本在增加。随着2008年全球出现金融危机,许多企业都在大幅度压缩成本和减少开支,与此形成随着全球气候变化,人们越来越重视对环境的保护,对各种产品(汽车、空调、冰箱等)的能耗标准都有明确要求,但数据中心能耗标准还没有制定,企业只是感觉到数据中心所消耗电能越来越多,维护数据中心成本在增加。随着2008年全球出现金融危机,许多企业都在大幅度压缩成本和减少开支,与此形成鲜明对比的是数据中心海量的数据增长速度对存储、能耗提出了要求。如何实现数据中心节能降耗成为企业、厂商共同目标,许多厂商都把节能产品作为销售产品时的一个亮点,企业则将节能降耗作为降低成本和树立企业形象重要内容。厂商、企业要实现节能降耗不仅依靠技术的创新,更需要用户优化数据中心设计。因此设计、建造并启用高性能、低能耗的数据中心已成为一项重要工作。 1、基础设施的节能降耗问题 据统计,大多数数据中心超过50%的电力资源被UPS、空调等机房基础设施消耗。剩余能源才被服务器、存储、网络等IT设备消耗。目前,国际上采用PUE通行的指标来衡量数据中心的电力使用率PUE=数据中心的总功耗/IT设备的总功耗。国外先进机房的PUE值可以达到1.7,而我国数据中心的PUE的平均值在2.5以上。 降低PUE值,必须在IT设备总量不变的情况下,降低空调、UPS等基础设施的电力消耗。 (1)降低数据中心的制冷能耗 降低制冷能耗是减少数据中心总能耗的关键,由于传统的数据中心没有根据空气动力学来设计通风系统,通常出现局部温度过高,空调制冷并未达到预期的目的,不仅能耗上有损失,且温度控制效果不理想。随着局部温度的升高,IT硬件的可靠性大幅降低,据估计,温度每升高10℃,电子设备的长期可靠性降低50%.通常的做法是,调低数据中心机房空调

数据中心空调系统节能设计分析及方法探究

数据中心空调系统节能设计分析及方法探究 发表时间:2019-08-06T15:46:25.110Z 来源:《建筑学研究前沿》2019年8期作者:傅永洪 [导读] 空调系统作为保证数据中心的稳定高效运转必不可少的措施,经过专业研究有着极大的节能减排的挖掘余地。 浙江新大新暖通设备有限公司浙江金华 321000 摘要:伴随着大数据时代的到来,我国的数据中心的数量与日俱增。但是数据中心的高能耗问题也成为了我国节能减排工作需要关注的一个重点问题,本文以大型数据中心空调系统作为研究对象,在分析大型数据中心空调系统的设置和特点的基础上,提出具有可实施性的节能措施,进而提高大数据中心空调系统的节能减排和能源利用率。 关键词:数据中心;空调系统;节能;分析研究 一、引言 进入大数据时代,各行各业的发展越来越离不开能够集中处理、存储和交换数据的专业数据中心,因此,各领域的数据中心建设和改造数量越来越多,规模越来越大。可以说我国的数据中心发展迅猛。但是通过系列的调查研究,可以发现我国当前的数据中心年耗电量很大,这也就意味着我国大多数的数据中心的平均电能使用效率(简称PUE=数据中心总能耗 / IT设备能耗)高,这并符合当前节能减排的发展原则。因此,我们需要通过多种形式的策略减少大数据中新的高耗能问题。其中,空调系统作为保证数据中心的稳定高效运转必不可少的措施,经过专业研究有着极大的节能减排的挖掘余地。 二、数据中心空调系统的组成 数据中心空调系统主要有制冷系统、散热系统及降温辅助系统三部分组成。 (一)制冷系统 主要是冷水机组,制冷系统的工作原理是通过转变制冷剂的高压、低压的形态,利用空气的流动性,迫使数据中心机房内部的热量流出室内。制冷系统作为保证机房温度的基础保障,是空调系统高耗能的部分之一,影响空调系统中制冷系统能源消耗的因素有机房环境温湿度、室外环境温湿度、受负载率等。 (二)散热系统 主体是风机或泵,工作原理是利用空气或水把热量从数据中心内部搬运到数据中的室外。排热系统产生足够的风量或水量以带走巨大的热量,但同时散热系统也是数据中空调系统耗能高的部分之一。影响散热能源消耗的因素是机房内部的气流组织。 (三)降温辅助 工作原理是通过冷却塔、喷头或湿式过滤器,利用水的蒸发在热量排到室外的工作过程中提供帮助。降温辅助系统可以提高换热效率,帮助空调系统把热量散发地更快。降温辅助系统的耗能比例占空调系统整体耗能比例较小。 三、数据中心空调系统高耗能解析 (一)空调系统配置不合理 由于数据中心对内部环境的恒定温湿度和空气质量都有很高的要求,但限于一些外部环境和技术升级的原因,大部分数据中心的空调系统都不引入室外新风,而采用循环风带走室内高密度的显热量。一般情况下,在室内没有湿源的条件下采用循环风的送风方式,空调系统是不用除湿的。但在数据中心空调系统的实际运行中,机房空调仍会流出冷凝水,这是因为空调在冷量输出时,冷凝水会携带冷量。因此数据中心在严格空气湿度的情况下,机房空调系统通常会一边对机房内部降温回风、冷凝除湿,另一方面又同时加湿,这种设备工作方式并不不合理,会造成大量不必要的能量浪费。 (二)机房气流组织不合理 数据中心机房内部的气流组织会对整体的散热排风效率产生极大的影响,当前的多数数据中心的气流组织都存在一些不合理的现象,主要体现在以下三方面:一是机柜排列方式不合理,把机柜面向同一个方向摆放,造成的结果就是前面服务器排出的热空气直接被后排服务器吸收,使得冷热气流混合在一起,大大拉低了空调制冷效率;二是送风通道设计不合理。一些数据中心建设规划不专业,送风管道等不符合标准,影响了空调系统的制冷能力,为了满足制冷要求会选用超出设备发热量的空调,提高了耗电量;三是地板出风口位置和空调出风口的距离设置不合理,甚至在二者之间摆放机柜,造成出风量不足、局部过热的问题。 四、数据中心空调系统的节能措施 (一)采用自然冷却技术 传统的常规制冷系统,需要制冷系统全年不间断地制冷,冷水机组全年运行运行,占据了空调系统的极大的耗电量。因此,采用自然冷却技术,可以在低温环境下,优先利用低温的自然水或风做冷源,免除了冷水机组的耗电成本。目前的自然冷却技术,主要有水侧自然冷却技术和风侧自然冷却技术两种。 (1)水侧自然冷却技术 水侧自然冷却技术,顾名思义就是在符合标准的情况下利用自然水做冷源供水。采用水侧自然冷却技术,一般需要把冷水和冷却水系统串联在板式换热器中,并把冷水的供回水温度设置成三段式:当冷却水供水温度≥16℃时,冷水机组和平时一样常规制冷,单独承担数据中心的全部冷负荷;当冷却水供水温度降到10—16℃,系统可以开始使用部分的冷水作为免费冷源,由冷水机组和免费冷源共同为空调系统提供冷负荷;当冷却水供水温度<10℃以下时,冷水机组可以在技术设置后自动停止运行,空调系统的全部冷负荷由免费冷源提供。通过自然冷却技术,在过渡季和冬季减少了压缩机工作,这种技术十分适合在我国北方沿海范围内的寒冷湿润性气候里使用,可以大大降低数据中心空调系统的PUE值。 (2)风侧自然冷却技术 风侧自然冷却技术包括和间接利用室外新风两种方式。直接利用室外新风,是指把室外低温冷空气运用过滤、除硫等方式净化处理后,直接引进数据机房内,作为冷源冷却设备,实现节能。如全年PUE仅1.07的FACEBOOK数据中心,采用的就是直接利用新风供冷。间接利用室外新风,又称“京都制冷”,东京很多的数据中心都采用这种方式,具体是指室外低温空气不直接进机房,而是通过转轮式换热器吸

相关文档
最新文档