数据中心机房节能分析

数据中心机房节能分析
数据中心机房节能分析

数据中心机房节能分析

杨根发中国移动通信集团江苏有限公司南京210029 为分析数据中心机房能耗的构成,笔者收集了南京3个数据中心机房近3年的用电数据。分析后发现,IT及网络通信设备的能耗占51%,空调制冷系统的能耗占24%,空调通风加湿系统的能耗占11%,照明能耗占2.5%,其他能耗占11.5%,因此数据中心机房的节能重点是IT及网络通信设备和机房空调。

1IT设备及网络通信设备的节能

能否解决好IT设备及网络通信设备的节能降耗问题,关键在于能否正确地选用IT 设备。衡量和比较各种IT设备是否具有最佳节能效果的标准是:在确保IT设备安全、可靠运行的前提下,设备的能耗比和IT设备所允许的工作温度、湿度范围是否具有优异的性能指标。

(1)设备能耗比

在选购服务器时,除了注意处理器、硬盘与内存等的规格外,还应关注电源供应器。

电源供应器产品除了标注电力的功率外,很少会标示电源的转换率。一般使用的电力都是交流电,要将交流电转换成直流电才能供给服务器内部各零组件使用。以一个400 W 的电源供应器为例,如果该供应器的转换效率为70%,即如果有400 W的交流电输入到电源供应器中,只有280 W的交流电会转成直流电供服务器应用,浪费了120 W的电力,所以在选购电源供应器时,必须注意转换效率的问题,转换效率越高的电源供应器越省电。

(2)IT设备所允许的工作温度、湿度范围

如果运营商选用对工作温度和湿度都很敏感的IT设备,势必会导致必须再花费大量的人力和物力去建立和维护耗能很大的空调保障系统,因此,设备采购时尽量选用具有较宽的工作温度和湿度范围的IT设备。根据运维经验,对于空调系统而言,在其他的运行工况条件保持不变的情况下,如果将空调的运行温度(回风口温度)提高1 ℃,就能将其运行效率提高3%左右,因此,就IT设备及网络通信设备的节能,重点要求在设备采购选型时选择节能型设备,从源头上最大限度地节约用电。

2 数据机房空调系统的节能

空调产生的能耗约占整个数据机房所需总功耗的35%左右。其中24%左右的功耗来源于空调的制冷系统,11%左右的功耗来源于空调的送风和回风系统。近年来,针对空调系统的节能,采取了以下措施,并取得良好的节能效果。

(1)冷凝器的温压双控雾化喷淋系统

冷凝器的温压双控雾化喷淋系统由带液晶蓝屏显示控制器的控制柜、压力传感器、温度传感器、SPAYERS雾化喷嘴、进水电磁阀及管路支架等部件构成。通过压力传感器和温度传感器,实时采集机房空调系统压力值和冷凝温度值。

每套TPDCS-1温压双控智能雾化喷淋系统能同时完成对4台单系统或两台双系统机房空调的压力值检测及喷淋控制。每台控制器可以提供4个独立的控制回路,每个回路可配置独立的压力传感器或温度传感器,分别采集机房空调的系统压力值或冷凝温度值。通过可实时调节的温度及压力的上下限值来控制电磁阀的开关以达到自动雾化喷淋的目的。系统所采用的智能液晶显示控制器可以配合压力、温度等线性变送器,对机房空调进行压力值、冷凝环境温度的测量、显示,通过对温度、压力限值的设定达到对雾化喷淋系统运行的控制。为保证试验的准确性、科学性和数据的可靠性,在近12个月的时间里,对A机房空调用电电度表进行用电统计和分析。当喷雾器关闭时,平均能耗为25.044 kW,当喷雾器开启时,平均能耗为22.475 kW,节能10.25%。以每台CM+40机房空调制冷设备系统耗电量为25 kW/h,每天工作16 h计算,每台空调用

电费用为400元人民币/天;按节电为10%计算,每天节约费用40元人民币。喷淋系统自身用水费用:每天用水量不超过1吨,费用不超过3元人民币,总节约费用为37元人民币/天,喷淋系统按一套1万元人民币计算,271天就可收回投资成本。(2)冷通道全封闭变风量送风方案针对数据中心采用管道上送风方式,通过改造送风管,将空调冷风直接输送到每个机柜,通过精密空调调整送风的温度和风压,在每个机柜风道阀门控制送风量,彻底解决了机房过热和降低空调能耗的问题。(3)水湿型智能通风系统水湿型智能通风系统能很好地满足在新风系统使用中的各项要求,做到在不影响机房温湿度环境的情况下有效节能。水湿型智能通风系统由智能控制单元、温度湿度传感器、进风设备单元和排风设备单元组成。智能控制器、温度湿度传感器和电气控制箱组成的控制系统用于测量室内外温度湿度,判断、控制通风系统的启停。进风设备和排风设备组成通风系统,进风设备引入室外湿冷空气,由机器设备吸入后换热,同时由设在较高位置的排风设备排出室内热空气。这样不但使空调压缩机的启用时间大幅度减少,而且可以使空调的加湿系统的启动时间大幅减少,甚至可以无需开启空调和加湿器,在降低机房能耗的同时也改善了机房的空气质量。在面积约为414 m2的机房安装4台力博特CM+50精密空调,每台设计风量14 000 m3/h,制冷量45.3 kW,采用风管送风,机房设置14排机架。具体改造内容及方案如下。在机房南侧3楼外墙安装4台送风量为10 000 m3/h的水湿型智能通风机,通风机安置在外墙的吊篮支架上。通过带外保温的送风管道将经过冷却除尘的室外净化空气送至室内,室外风管通过接口法兰与室内风管相接,进风口位于两个立柱间(10 m)靠右侧立柱的位置。沿机房南侧布置4条宽和高为500 mm×700 mm的送风管道,在管道的进风口弯头处加装电动风阀,当新风进风机停机时可自动关断与室外进风通道的连接。在每条风管侧面对应机架通道位置开3~4个格栅式送风口,对机房进行送风。在两个立柱间(10 m)靠左侧立柱的墙壁上部开一只排风口并安装自垂百叶式排风机,风机采用双层铁网以预防虫鼠进入,同时在排风机进风侧加装一只电动风阀,当进风机停机时可自动关断与室外排风通道的连接,排风机尽量靠近圈梁下方安置。每套新风系统安装一台集中控制器,控制器设置于两个立柱间(10 m)的内墙上,在室外进风口与室内排风口处各安装一只温湿度传感器,对室内外的温湿度进行检测,根据实测参数控制新风系统的开停。从室内机房空调的进水管接一条进水管对水湿型智能通风机供水,排水由室外新风机排水口处安装排水管道排至地面下水道。(4)改造效益分析本次改造需要安装4套水湿型智能通风系统,每套水湿型智能通风系统的造价为3.8万元人民币(含设备费用、安装辅材、系统安装费、系统调试费),总费用为14.2万元人民币。安装水湿型智能通风系统的机房,每年可以有40%~50%的时间不用开启机房空调进行制冷,该机房内4台机房空调压缩机及室外冷凝风机的功耗约为40 kW/h。根据南京地区的气候情况,每年压缩机及冷凝风机的开启使用时间约为全年的60%。根据此比例估算耗能,新风系统的应用可以使机房空调制冷系统每年节省的电费估算为105 960元人民币。安装水湿型智能通风系统的机房,每年可以有95%的时间不用开启机房加湿器空调对机房进行加湿,目前4台机房空调加湿器的功耗为30 kW/h。根据南京地区的气候情况,每年加湿系统的开启使用时间约为全年的15%。根据此比例估算,新风系统的应用可以使机房空调加湿系统每年节省的电费估算为44 938元人民币。从上述数据可以看出,通过加装水浸式新风系统改造后,该机房每年可节省电费15万元人民币左右,改造当年就可以全部收回改造费用。3 供电系统的节能当前数据机房设备用电主要为交流电,交流电通过由变压器和ATS开关所组成的UPS进行供电,UPS功耗约占数据机房所需总功耗的10%,因此针对供电系统,建议采取以下措施。(1)推动数据机房直流供电代替交流供电大力推动数据机房直流供电替代交流供电,无论是供电可靠性、电磁兼容还是能效比,

直流供电都优越于交流供电。(2)采用无变压器的UPS设备如同电源供应器存在转换效率问题,UPS也有同样的问题。传统的UPS的整机效率只有75%~85%,但采用无变压器的机型,可以提升至90%以上,因此,选用无变压器的UPS可以更有效地利用电源,让每一度电都花费在系统运作上,进而降低电力的成本。

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

数据中心机房建设整体解决方案

数据中心机房建设 整体解决方案

目录 1模块化机房 (5) 1.1模块化数据中心概述 (5) 1.2怎么样的机房适合采用微模块机房 (7) 1.3微模块机房与传统机房有什么区别? (9) 1.4单排模块化数据中心 (17) 1.5双排模块化数据中心 (21) 1.6密封冷通道部分 (26) 1.7智能动环监控系统 (34) 1.9列间(行间)精密空调 (45) 1.10房间级精密空调 (47) 1.11智能低压配电柜 (49) 1.12精密配电柜(列头柜) (52) 1.13双排微模块冷通道产品规格 (54) 2一体化机柜 (68) 2.1什么是智能一体化机柜 (68) 2.2智能一体化机柜优势 (70) 2.3用户价值 (73) 2.4应用场景 (74) 2.5智能一体化机械柜组成部分(产品配置) (75) 2.6智能一体化机柜(MDC)分类 (76) 2.7智能一体化机柜系统特点 (77) 2.8智能一体化机柜系统功能 (79) 2.11联柜数据中心(中型MDC模块化数据中心解决方案) (89) 3机房建设 (126) 3.1机房建设概述: (126) 3.2机房标准化建设的必要性 (127) 3.3机房分级的判定条件: (127) 3.4机房环境建设等级保护二级要求 (128) 3.5机房环境要求及解决措施 (129) 3.6机房系统建设内容: (130) 3.8案例分析 (139) 3.9注意事项 (140) 3.10常见问题 (141) 3.11机房建设设备清单 (142) 4屏蔽机房 (174) 4.1电磁屏蔽室简介 (174) 4.2电磁屏蔽室遵循的相关国家及行业标准规范 (175) 4.3电磁屏蔽室的主要功能: (176) 4.4屏蔽的基本分类 (177) 4.5电磁屏蔽室用途可以分为三大类 (178)

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

机房数据中心供配电系统解决方案

商业银行数据中心供配电系统解决方案 商行数据中心的基础设施系统主要分电源、环境控制和机房监控管理系统。由于数据中心承载商行的核心业务,重要性高,不允许业务中断。因而数据中心一般根据TIA942标准的Tier4标准建设,可靠性要求99.99999%以上,以保证异常故障和正常维护情况下,数据中心正常工作,核心业务不受影响。 1、电源系统: 选用两路市电源互为备份,并且机房设有专用柴油发电机系统作为备用电源系统,市电电源间、市电电源和柴油发电机间通过ATS(自动切换开关)进行切换,为数据中心内UPS电源、机房空调、照明等设备供电。由于数据中心业务的重要性,系统采用双母线的供电方式供电,满足数据中心服务器等IT设备高可靠性用电要求。双母线供电系统,有两套独立UPS供电系统(包含UPS配电系统),在任一套供电母线(供电系统)需要维护或故障等无法正常供电的情况下,另一套供电母线仍能承担所有负载,保证机房业务供电,确保数据中心业务不受影响。在UPS输出到服务器等IT设备输入间,选用PDM(电源列头柜)进行电源分配和供电管理,实现对每台机柜用电监控管理,提高供电系统的可靠性和易管理性。 对于双路电源的服务器等IT设备,通过PDM直接从双母线供电系统的两套母线引人电源,即可保证其用电高可靠性。对于单路电源的服务器等IT设备,选用STS(静态切换开关)为其选择切换一套供电母线供电。在供电母线无法正常供电时,STS将自动快速切换到另一套供电正常的母线供电,确保服务器等IT设备的可靠用电。 供配电系统拓扑图

ATS ATS 柴油机发电 第一路市电 第二路市电动力配电柜 第二级配电UPS 配电柜 UPS1 UPS2 PDM1 PDM2 列头柜 STS 机柜P D U 1机柜P D U 2 机柜P D U 1机柜P D U 2 机柜机柜P D U 1 机柜P D U 2 机柜机柜P D U 1机柜P D U 2 机柜P D U 2 机柜P D U 1机柜机柜 第一级配电机柜 第三级配电 空调新风 双母线供电方案 机柜内走线 图示双母线供电系统可确保供电可靠性高达99.99999%以上 2、机房智能配电系统三级结构 数据中心三级配电系统是对机房配电的创新,机房三级配电系统有利于配电系统的设计和运维管理 第一级:机房配电接入层。主要包括大楼地下配电室到机房输入端电缆的部分及机房市电配电部分。 第二级:机房配电管理层。主要包括机房UPS 配电部分。通过使用模块化配电柜,实现机房的模块化配电,并将设备用电和辅助设备用电分开; 第三级:机柜排及机柜配电层。主要包括列头柜PDM 配电、STS 配电到负载部分; 3、 供配电系统的智能化管理 供配电系统的智能化管理:列头柜的智能监控系统可对配电系统开关状态与负载情况进行监测、告警、统计。 监控的输入部分电气参数有:电量、有功功率、无功功率、视在功率、功率因数、三相电压、电流、频率等。 监控的输出支路电气参数有:额定电流,实际电流、负载百分比、负载电流谐波百分比、负载电量、功率因数等。 这些监测信息能让值班人员掌握各设备的运行情况,及时调整负载分布,清楚了解每一个机柜的耗电量,对设备电源部分的潜在故障、对能效管理、降低能耗提供可靠依据。 模块化设计智能管理:本方案配电系统遵循以可靠性设计为核心,专

数据中心机房布线方案

数据中心机房布线方案 1. 概述 当前, 我们正处在一个信息爆炸的时代, 数据的存储量已经不仅仅是用 KB、 MB 、GB 甚至 TB 来计算 , 在不远的将来 , 人们所谈论的将是 PB(1petabyte=1,000terabytes甚至 EB(1exabyte=1,000petabytes。在企业的 IT 基础架构中,数据中心是数据及业务应用的总控中心。数据中心汇聚了最昂贵的服务器和存储及网络设备, 担负着数据存储、访问的艰巨任务。数据中心的建设要面向企业业务的发展, 并为企业提供全面的业务支撑。这种支撑涵盖了客户、企业业务、企业数据和决策支持等层面。 随着数据中心高密度刀片式服务器及存储设备数量的增多, 数据中心面临着网络性能、散热、空间、能耗等一系列严峻的挑战。根据全球最大的独立技术研究公司Gartner Research 发布的研究资料显示,由于缺乏灵活、高性能的综合布线规划, 在2002年之前建立的数据中心中, 半数需要在 2008年前升级或者淘汰。 因此, 建设一个完整的、符合现在及将来要求的高标准的新一代的数据中心需要达到以下几点要求: ? 高可靠性——基于标准的开放系统, 预先经过测试 , 确保系统 7*24小时稳定可靠。 ? 高性能——满足目前的网络传输需求, 支持至少 1G 或 10G 甚至更高速率传输 ? 高密度——节省空间,方便设备散热设备散热。 ? 可维护性——美观大方 , 适应频繁的需求变化,方便 MAC 维护。 ? 可扩展性——充分考虑未来业务增长,支持未来扩容需求。 本次设计将从先进性、可靠性、实用性的原则出发, 以满足目前用户的应用需求为基础, 充分考虑到今后技术的发展趋势及可能出现的需求。为用户提供具有长远效益的全面解决方案。 2. 设计标准 TIA-942数据中心机房通信设施标准

高效数据中心的六大绿色节能措施

高效数据中心的六大绿色节能措施 和一两年前相比,很多数据中心的运营者们如今也并未热衷于“绿色”这个词。这当然不是说他们已经抛弃了旨在提升能源效率,更好地利用IT资源的各种项目,因为这些项目既可以削减运营成本,又能减少对环境的影响。 市场咨询公司451集团在考察了被大批组织和机构所接受的可降低数据中心运营成本的六种绿色实践之后,发布了一份内容全面的报告:《高效节能的数据中心实践》。其中的一些实践做法,如进行数据中心的全面规划,寻找可替代传统制冷系统的方案等可能早已被大家所熟知;其他做法,如采用直流供电和预制件数据中心等,则很少有人谈及,或者被认为不可持续而不予理会。 在计划升级其设施时,数据中心的运营者们应该好好考虑或者重新考虑一下这些趋势。当然,并非所有这些实践都适合每一个组织,但如果你不去看看,那你就有可能永远都不知道有这些实践做法存在。 实践1:采取综合的可提升整体效率的方法 数据中心运营者需要通过结合了集成技术和各种手段全面处理效率问题的方法,而不能孤立地去对待每个项目。这其实并不是什么开创性的概念:绿色网格组织从2008年成立以来就一直在提“通盘考虑”的口号。而这样做的最大好处之一就是可以促进各部门间,尤其是设施部门和IT 部门间的协同,确保所有的参与者在对数据中心进行升级改造时能够意见一致。举例来说,IT 部门订购了一个用于关键任务项目的高端服务器机柜,那么他只需要在机柜到达数据中心时打听一下是否有足够的电力或冷却能力支持这个机柜便可。 组织内的协作并未到此结束。为了努力减少能源浪费,很多企业部门之间如今已越来越开放,曾经是各部门最隐秘的东西也可以公开。这方面最有名的例子就是Facebook,利用其开放计算项目,该公司有关高效服务器、机柜和冷却设备的蓝图也都在开源。 实践2:更智能的冷却系统 数据中心运营者们正逐渐意识到,数据中心设施并非存放肉类的大冰柜,只需要适当制冷即可。虽说IT管理人员不希望设备因过热而失灵。但如果你花在IT上的每个美元都得分出50美分用于制冷的话——这正是很多传统数据中心的平均PUE比值——那几乎可以肯定你是在烧钱。 有好多种办法可以降低冷却成本,其中一些技术始终不被企业所接受,生怕会毁掉他们的宝贵硬件。这其中就包括液体冷却技术,该技术被认为会产生很多维护方面的问题,而且使用范围有限。但是来自绿色革命冷却公司的一种液体冷却方法采用了低成本、无污染的绝缘液体,据称其吸热能力是空气的1200倍。 至于空气冷却这种免费冷却方法则要比液体冷却更受欢迎。这个概念也很简单:只要把数据

数据中心机房节能简析

数据中心机房节能简析 贾骏 吕捷 王众彪 工业和信息化部电信研究院 邮电工业产品质量监督检验中心 摘要:本文阐述了数据中心机房的主要能耗分布情况,并从数据设备、电源系统、空调系统、机房气流组织几个方面介绍了机房降耗的主要方式。 关键词:数据中心 UPS 气流组织 1、数据中心机房概述 数据中心是为集中式收集、存储、处理和发送数据的设备提供运行维护的设施以及相关的服务体系。数据中心提供的主要业务包括主机托管、资源出租、系统维护、管理服务,以及其他支撑、运行服务等。 本文所提到的数据中心机房,是指承载数据中心业务的基础设施,一般由核心业务机房、UPS机房、电池室、空调机房、柴油发电机房等构成。 我国数据中心市场发展迅速,根据赛迪顾问年度报告,2010年中国IDC市场规模达到102.2亿元。我国2005年以来数据中心市场发展的趋势如图1所示。 图1 我国IDC市场发展趋势 2、数据中心机房能耗分布 2010年我国数据中心资源投入占总投入将近30%,维护成本占总投入近15%。[1]2010年我国数据中心运营成本分布如图2所示。

图2 2010年中国IDC公司最高运营成本分析 数据中心机房能耗主要分为服务器/网络设备能耗、制冷能耗、供电系统能耗、照明和其他能耗。根据EYP Mission Critical Facilities所提供的数据,50%的数据中心用电量是被服务器/网络设备所消耗。制冷系统是数据中心内第二大能耗系统,其耗电量占数据中心总耗电量的37%。供电系统占10%,照明和其他占3%。[2] 3、数据设备降耗 数据设备是承载数据中心的业务核心设备,同时也是耗电量所占比例最大的设备。根据亚马逊JamesHamilton的研究,数据中心服务器硬件所消耗的电力的费用约占57%。针对不同规模的数据中心,该费用比例是不同的。2010年我国数据中心规模分布如图3所示。 图3 2010年中国IDC公司的机房服务器数量 服务器是数据中心最为常见的设备。使用高效低能耗的服务器是数据设备降耗的关键所在。Standard Performance Evaluation Corporation(SPEC) 是一个全球性的、权威的第三方应用性能测试组织,它制定了一系列的规范来评定服务器应用性能。可以根据SPEC的测试值评定服务器的效能/能耗,以此作为选购服务器的参考。另一个评定标准是能源之星的服务器标准,符合能源之星标准的服务器要比旧式服务器多出30%的能源效率。 对于网络设备,可以使用TEEER值以及ECR/EER性能能耗比评估法进行节能分析。 4、电源系统降耗

数据中心节能改造的7种解决方案图文【最新版】

数据中心节能改造的7种解决方案图文 点评网()报道:随着计算机网络业务量的迅速增长、服务器数量的增加,机房的面积及规模也在不断扩大,数据中心的能耗成本也迅速增加,并有赶超硬件成本的趋势。据权威机构调查显示,我国每年用于服务器的电源和冷却的总开支超过了20亿美元。对于已经建成投产的数据中心,如何实现有效的节能改造,需要从多方面考虑。本篇介绍了数据中心基础设施节能改造的几种主要解决方法。 一、设计一套机房整体监控系统 图IT设备负载变化曲线 从机房负荷和空调冷量配置来看,机房一般设计为N+X的安全运行模式,但从整个机房IT设备布局来看,由于机房面积较大,考虑其循环风量及减少机房局部温度死角等问题,及负载设备功耗的动态变化,精密空调群无法做到人为控制按照需求运行,机房发热量变化

无规律可以遵循,所有室内风机全速运行,压缩机由每台空调独自按照自己的需求进行控制,此种运行模式从运行费用角度来说是不经济节能的。如果强制空调群中的冗余设备进行关机运行,由于机房气流组织及温度变化规律很难掌握,人为控制空调的开机与关机也很难做到机房安全,因此可能存在局部温度不可控的现象。因此,机房精密空调群控対机房节能起到至关重要的意义。 机房专用空调群控节能的思路是:在保障机房设备正常运行的前提下,通过减少冗余空调设备的运行时间,来降低整个机房的能耗,实现空调系统的备份/轮循功能、层叠功能、避免竞争运行功能、延时自启动功能。 结合曙光自适应集群功率与能耗监控系统,进行精密空调集群集中管理,管理软件根据CPU占有率计算每一排的服务器功耗,根据负载分布情况及精密空调分布情况精确控制相应位置空调的工作状态,其中主要包括压缩机的启停和空调室内机的风扇启停。精密空调通过RS485网络与协议转换器通信,协议转换器通过以太网与管理节点协同工作,这样使不同厂家的精密空调(具有监控功能)能够通过曙光标准协议接口与管理节点进行数据交互每个服务器机柜内安装两个无线温湿度探头,每排机柜构成一个网络,通过物联网的组网方式形成一个温湿度监控网络,并通过以太网将数据上传至管理节点,形成双层监控网络,在监测到服务器到温的时候,开启机房空调,在节能的

数据中心机房运维方案

数据中心运维外包 服 务 方 案 2019年8月

数据中心运维外包服务方案 目录 一、运维的重要性 (1) 二、维护范围 (1) 三、提供的服务 (2) 四、服务内容 (3) (一)UPS供配电系统 (3) (二)机房空调系统 (5) (三)服务器运维 (7) (四)存储系统运维 (9) (五)虚拟化平台运维 (10) (六)数据库系统运维 (11) (七)网络设备运维 (13) (八)其它有关系统或设备运维 (15) 五、运维报价服务 (16)

一、运维的重要性 数据中心的日常运维工作是至关重要的。设备故障时,应提供快速的备件供应、技术支持、故障处理等服务。通过机房设备维护保养可以提高设备的使用寿命,降低设备出现故障的概率,避免重特大事故发生,避免不必要的经济损失。 数据中心的运维工作专业性很强,通过引入专业的维护公司进行日常运维工作。建设及使用单位相关管理人员可从日常需要完成专业性很强的维护保养工作中解放出来,重点做好管理及协调工作,更好的发挥信息或科技部门的其它职能。 通过专业、系统、全面的维护可以提前发现问题,并解决问题。将故障消灭在萌芽状态,提高系统的安全性,做到为客户排忧解难,减少客户人力、物力投入的成本,为机房内各系统及设备的正常运行提供安全保障。可延迟客户设备的淘汰时间,使可用价值最大化。通过专业的维护,将数据中心机房内各类设备的运行数据进行整理,进行数据分析,给客户的机房基础设施建设、管理和投入提供依据。 二、维护范围 数据中心机房于××年×月建成并投入使用,数据中心有关设备及基础系统清单如下:

三、提供的服务 为更好的服务好客户,确实按质按量的对设备进行维护;我公司根据国家相关标准及厂商维护标准,结合自身经验积累和客户需求,制定以下服务内容: 1.我公司在本地储备相应设备的备品备件,确保在系统出现故障时,及时免费更换新的器件,保障设备使用安全。 2.我公司和客户建立24小时联络机制,同时指定一名负责人与使用方保持沟通,确保7*24小时都可靠联系到工程技术人员,所有节日都照此标准执行。 3.快速进行故障抢修:故障服务响应时间不多于30分钟,2小时内至少2人携带相关工具、仪器到达故障现场现行故障排查处理,直到设备恢复正常运行。 4.我公司对维修维护的设施设备的使用性能负责,在维修维护过程中严格执行技术规范,保证设施设备的性能符合相关技术标准要求。在维修维护间,我方应对设施设备可能存在的故障隐患做出评估,并进行恰当的预防性处理,以保证设施设备的安全运行。若故障隐患超出维修维护范围的,及时书面通知客户,并提出消除隐患建议。 5.维护巡检中我公司提供设备系统图或使用说明书:将机房内设备的整个系统等汇编成资料,由维护人员进行统一放置,便于应急查询。 6.巡检次数每年不少于四次,每次巡检后,由维修维护方提供巡检报告,并由使用方签字确认。每月由我公司客户服务人员定期进行回访,听取客户意见反馈,搭建起双方的沟通渠道。 7.提供系统应急方案:设备在12小时内还无法修复的应有备份应急处理方案。如提供适合负载功率的备机、备用空调等。 8.培训:提供专业理论知识培训和操作培训,维修维护培训,简单故障处理培训,培训文档由我公司整理。 9.人员配置:全年(包括所有的节假日期间)提供不少于2名工程师在常住贵阳本地,确保满足响应时间要求;到现场的维护维修工程师至少一名是能完全解决故障并有丰富从业经验的。 10.我公司每次巡检完毕后提供维护报告,同时还提供全年维护报告、每次维修事故报告等资料,根据事故提出相应的整体解决方案等管理规划层面的内容。

数据中心工程中暖通系统节能措施的分析与研究

数据中心工程中暖通系统节能措施的分析与研究 摘要:随着中国经济的迅速崛起,信息化、网络化的时代快速到来,数据中心 的规模越来越大、服务器的发热密度越来越高,与之伴随的则是能源消耗的陡然 升高。概述了目前数据中心工程设计时主要的暖通系统,逐一分析目前采用较多 的节能措施特点、应用条件等,讨论了一些应用较少或较新的节能措施。 关键词:数据中心;发热密度;节能措施 一、引言 随着中国经济的迅速崛起,信息化、网络化的时代快速到来,作为信息化的 基础设施,数据中心的规模越来越大、且服务器的发热密度越来越高,与之伴随 的则是能源消耗的陡然升高,节能变得刻不容缓,从IT设备自身对周围环境的要 求出发,制定一个系统的、有针对性的、安全的、节能的暖通空调系统方案成为 暖通专业设计人员的主要目标。在2006年以前,单个数据中心的规模还很小, 大多数均在2000m2以下,且单机柜发热密度也很小,采用的冷却方式一般为直 膨式的机房专用精密空调,其特点是控制精度高,在寒冷地区能全年运行,使用 寿命较一般舒适型空调长,但价格昂贵。2006年后,数据中心的规模越来越大,单个数据中心的面积达到上万平方米,如果还按照机房专用精密空调作为冷却方式,评价其节能效果的重要指标PUE(Power Usage Effectiveness)至少在2.0以上。 所以,这种冷却方式在规模较大的数据中心中会使得整个运行过程的电费大 幅升高。针对这种情况,目前的普遍做法是用冷冻水系统代替直膨式精密空调, 以冷冻水系统(一次泵或二次泵均可)作为基础,针对不同的气候参数、可利用场地、平面布局等条件又细分为多种形式,例如冷源可以是风冷冷水机组,也可以 是水冷冷水机组;空调末端可以是精密空调也可以采用组合式空调,且组合式空 调还可以采用热回收式机组等。本文主要从节能的角度出发,重点阐述可行的节 能措施,针对具体工程,可根据实际情况选取合理的节能措施形成一个完整的、 有针对性的空调系统。 二、数据中心机房环境要求 数据中心主要是给服务器、存储等设备提供一定的运行环境,服务器等设备 均是处于全年不间断运行中,对于运行环境要求非常,涉及温度、湿度和空气洁 净度。一般机房机柜区域或冷通道温度设置在24℃左右,湿度40%到65%,空气 洁净度要求每立方空气中大于或等于0.5μm的悬浮粒子数少于1760000粒,如果 空气中存在的硫化物、氮氧化物以及腐蚀性气体也会对于服务器等设备产生非常 大的伤害。 相关统计数据显示,数据中心每年每平方英尺能源成本是普通办公室的十倍,其中暖通系统能耗最大,可见暖通系统能耗的严重性。导致数据中心暖通系统能 耗高的因素有很多。首先,从新风处理角度来看。一些数据中心建设中,忽视了 对自然因素的利用,不能新风处理能耗大,且处理效果不理想,导致新风处理过 程中能耗问题突出。此外,一些数据中心规模扩大、设备增多,却没有合组织气流,结果造成冷风与服务器的热风混在一起,严重制约了暖通系统功能发挥,导 致能耗严重,更给设备运行造成了不利影响。另一方面,一些数据中心缺乏相应 管理制度,没有设置隔离门,造成数据中心与外界空气环境交换过于频繁,导致 数据中心内部湿度、温度与实际需求偏差较大,就会加大暖通系统整体能耗,更

基于绿色数据中心节能建设分析

基于绿色数据中心节能建设分析 发表时间:2016-11-09T15:21:54.870Z 来源:《基层建设》2016年16期作者:刘宝新 [导读] 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 北京国信网通科技有限公司北京市 100085 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 关键词:绿色;数据中心;节能建设 1绿色数据中心节能指标分析 目前,衡量数据中心是否绿色的主要量化指标是采用绿色网格组织(GreenGrid)制定的能效比指标,又称为PUE(PowerUsageEfficiency)。 PUE=[TotalFacilityοfPower(设备总能耗)ITEquipmentPower(IT设备总能耗)×100%]=1+[空调能耗IT设备能耗]+[通风能耗IT设备能耗]+[配电能耗IT设备能耗]+[UPS能耗IT设备能耗]+[照明能耗IT设备能耗]+…… PUE反映了数据中心总能耗和计算、存储、网络等IT设备能耗的比值。PUE值大于1,其数值越小,说明能源利用率越高。目前,国外先进的数据中心的PUE值能达到1.5~1.8,而我国的数据中心的PUE值为2~3,说明仅有33%~50%的电能用在了IT设备运行上,50%~66%的电能消耗在空调、配电等设备上。 2建设绿色数据中心应遵循的原则 2.1突出绿色环保,科学拟制方案:绿色数据中心建设要结合数据存储使用需求,根据信息采集、传输、处理和分发的具体使用需求,以及IT设备的具体特点,围绕绿色环保对数据中心的供电方式、UPS电源容量、制冷方式、照明、风路、水路、电路、管网、主要IT设备的选型等方面进行综合考虑,进行统一规划设计,并逐项细化,寻求最高效益。 2.2突出节能高效,合理配置资源:首先要突出保障重点。根据实际和存放数据的重要程度,可将数据中心划分为高密区、中密区和低密区,重点对高密区的电源、通风、制冷设备采取多种技术措施,制订多种配置应用方案。其次要便于系统扩容。根据信息化建设的发展特点,基础设施需求会呈现非线性爆炸性增长趋势,所以在数据中心的规划建设中,要充分考虑选址合理、系统容量易于扩展。 2.3突出稳定可靠,提高重组能力:不能稳定可靠运行的数据中心是无用的数据中心,因此设计数据中心一定要在提高其重组再生能力方面下功夫。硬件设施方面,在电源引接上,要有两个以上不同方向的路由线路;在UPS配置上,要采取多组互联方式,保证每个PDU单元、每个机柜的接电排、每个设备的电源输入端子上,都有两路以上独立UPS电源引接;在风机、制冷及配线上要进行N+1备份,对重要的保障区域要实现1+1备份。软件配置方面,运用云计算及虚拟化技术,将故障的网络、计算、存储等设备的应用随时自动平滑迁移到其他网络、计算、存储设备上,保证业务的不间断运行,提高系统重组能力。 2.4突出安全智能,提高管控水平:在外围监控上,要设立安全隔离区,建立由电子围栏、红外探测、夜视监控、自动报警、门禁系统等组织的综合外围监控系统,以提高安保等级。在区域设置上,区分维护区、设备区、控制区,将数据中心规划为不同的安全防护等级,采取多种身份认证措施和不同的防护手段,对核心控制区要设置以生物特征识别为基础的身份认证系统,严格人员进出管理;对核心设备区要设置气体消防,保证设备安全。在防电磁泄露上,对电源线、信号线等要采用屏蔽电缆,避雷装置和电缆屏蔽层应接地,对核心设备区要加装电磁屏蔽设施,保证设备安全可靠;在智能管理上,对数据中心的周边安全、内部温(湿)度等环境参数,对风、机、电、水相关配套系统运行指标,对计算、存储、网络设备负载运行状态,要能做到实时感知、直观呈现、智能处理,提高运维管理效率。 3建设绿色数据中心应关注的问题 3.1减少IT设备能耗:根据能耗结构和能耗路径图,IT设备每减少能耗1W,数据中心将整体减少能耗2.84W。在保证效率的前提下,降低IT设备的能耗是一个最有效的方法。从实现技术上看,主要有两种方法:一是采用高效低耗的核心部件。受加工工艺和技术水平的影响,不同供应商提供的CPU等核心处理器在能耗上存在20%~40%的差异,要尽量采用节能产品。二是采用工作效率较高的新型服务器,如用刀片式服务器取代机架式或塔式服务器,设备可节能20%~30%。 3.2采用虚拟化技术:采用虚拟化技术对现有服务器、存储设备进行整合,在不增加硬件投入成本的情况下,将所有的服务器、存储设备虚拟成一个公用的资源池,统一灵活调配,提供服务,在提高性能的同时减少物理服务器、存储设备的数量,减少电力、制冷和场地成本。在服务器方面,传统服务器平均CPU利用率一般为7%~15%,经虚拟化整合后,CPU利用率能提高到60%~70%,还能实现虚拟服务自动迁移、数据存储整体读写速率、系统鲁棒性和高可用性的提高。 4.3提高制冷效率:机房空调对数据中心的安全稳定运行起保障作用,空调耗电量在数据中心的总耗能中约占50%,已经超过了IT设备本身的耗电成本。提高制冷效率,主要从两个方面入手:①使用精密空调替代普通空调。同功率的普通空调和精密空调产生同样的制冷量,前者耗电量是后者的两倍。②规划好机房内冷热气流通道,避免交叉。传统的机房空调直接对机柜吹风或采用下送风方式,送(回)风路径不合理,应采用冷热气流通道隔离技术,科学设计机房各要素布局,缩短冷气流的运行距离,实现精确定点的冷能量投送,以减小能量消耗,提高空调制冷效率。 3.4减少供电模式转换:交流直流转换过程中的热损耗是数据中心隐性耗电的“大户”,能耗高达20%~30%。在传统供电方式下,为UPS 充电,要将外部交流电源转换为直流为电池充电;使用UPS电源时,要将UPS电池直流转换为交流,为IT设备电源模块供电;IT设备工作时,由于CPU等耗电设备是直流供电,IT设备电源模块要将外部交流转换为直流。在条件允许的情况下,尽量使用直流供电的服务器,通过直流电源供电方式,减少交流和直流电源逆变的次数,以提高电能应用效率。 3.5加强运维管理:通过精确智能的运维管理工具,实时监控和分析各种IT设备负载情况,及时发现、处理、维修、停用异常的IT设

数据中心节能方案分析

数据中心节能方案分析(总7 页) -CAL-FENGHAI.-(YICAI)-Company One1 -CAL-本页仅作为文档封面,使用请直接删除

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。

数据中心节能方案分析

数据中心节能方案 分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其它专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,当前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,而且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆

放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,可是她们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工

机房散热解决方案

机房散热解决方案 随着通信业的高速发展,网络核心设备、动力系统、机房设备等能耗占社会总能耗比重越来越大,数据中心冷却功耗占整体功耗高达45%-50%,节能减排成为重要的行业责任和机房建设的未来趋势。 为适应这一趋势,中兴提出了机房热管理方案,给机房通讯设备提供一个安全可靠的运行环境,通过冷热气流合理分配,达到节能减排的目的。 3.1 目前机房散热现状 1)、精密空调系统弥漫推送冷气的方式 为了使局部高热区域降温,整个空调系统的温度往往需要调得很低。目前大多被设置为“强制制冷,25℃”或者是“自动,28℃启动”的工作模式,部分机房的空调甚至是全年开启,所以尽管了优化了冷热气流的组织形式,电能浪费现象依然较为普遍和严重。 优缺点 改善气流管理,机房散热能力有所改善; 全区域制冷降温, 机房制冷效率低下,无法达到绿色数据中心的PUE值标准 无法满足中,高密度机柜的制冷需求,出现大量局部热点;造成机房空间利用率降低。 2)、智能新风系统 机房新风系统是通过对机房建筑的简单改造,以智能逻辑控制的通风系统,充分利用机房部外部环境温差,实现机房外部冷热空气的直接交换而自然降温,并通过联动控制机房空调的运行状态,达到减少机房空调运行时间,降低机房空调能耗的目的。

优缺点 直接利用自然冷风,热交换效率高,节能效果显著 引起机房空气洁净度下降,设备因灰尘、静电、湿度等故障增多 3)、智能热交换器系统 热交换器在完全隔离外空气的前提下,利用外界冷源,对部环境进行冷却,达到减少空调运行时间以实现节能的目的。

优缺点 室外空气不接触,仅热交换,保持洁净度不下降热,湿度不变 换热效率不高,对于在温度超过15度地区没效果 3.2 中兴机房热管理方案 3.2.1 高热密度制冷方案 高热密密制冷方案:热源直接冷却,杜绝热流紊乱;此方式灵活,易于改造和维护,满足主流标准机柜。 解决方案 一体化冷却机柜---高密度散热解决方案 在传统的数据机房制冷系统条件下,机柜热密度一般在2到3KW/机柜,很多机房的机柜只能放几个服务器,以此来降低单个机柜的热负荷,但这又造成了机柜利用率的降低。为了使单个机柜支持更高的热密度(20到25KW/机架),中兴新提出一体化冷却机柜—高密度散热解决方案,即利用“水冷门”的辅助散热方案 中兴一体化冷却机柜“水冷门”方案原理图 中兴一体化冷却机柜“水冷门”方案示意图

数据中心能耗分析

数据中心能耗分析 Document serial number【UU89WT-UU98YT-UU8CB-UUUT-UUT108】

数据中心能耗实例分析前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。 一、数据中心节能的必要性 近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。 随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为。据最新报道Google公司现在已经有部分数据中心的PUE降低到。而我们国内的PUE平均值基本在~,中小规模机房的PUE值更高,大都在以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。

根据对国内数据中心的调查统计,对于未采用显着节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH左右。因此对于新建的大型数据中心,节能的必要性十分重要。 从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。 二、影响数据中心能耗的因素 数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对UPS而言,根据IT设备的实际负荷选择合理的UPS 容量,避免因UPS效率过低而产生较大的自身损耗。同时,选择更加节能的高频UPS、优化UPS拓扑结构都可起到节能的效果。 1、UPS对数据中心能耗的影响 UPS主机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作效率,可以为数据中心节省一大笔电费。下图为某大型UPS主机的效率曲线。从该曲线中可以看出,当UPS负荷超过30%时UPS的效率才接近90%。很多数据中心在投运初期IT负荷较少,在相当长的时间内负荷不足20%。在此情况下UPS的效率仅仅为80%左右,UPS的损耗非常大。因此,在UPS配置中尽量选择多机并联模式,避免大容量UPS单机运行模式。例如,可以用两台300kVA UPS并联运行的模式代替一台600kVA UPS单机运行模式。其优点在于IT负荷较少时只将一台300kVA UPS投入运行,另一台UPS不工作,待IT负荷增加后再投入运行。这种UPS配置方案及运行模式可以提高UPS效率,降低机房能耗。 2、供配电系统对数据中心能耗的影响

相关文档
最新文档