数据中心节能方案-通道封闭

数据中心节能方案-通道封闭

通道封闭概述

随着对节能减排的要求,采用通道封闭技术也是有效降低耗能的技术手段之一。

--机柜按照冷热通道布置

--通道两端入口用双开门封闭

--通道上方用顶板封闭

由此形成的相对密封的通道空间,大大提高冷/热空气利用率,提高精密空调制冷效率。

通道封闭概述

冷通道封闭采用为模块化设计,冷通道两侧相对应的两台机柜为一个模块

每个模块均能独立安装与拆卸,方便用户增加、减少或者移动通道内

部分机柜。

每个顶板均可实现与消防联动。当机房内火灾信号确认后,顶板自行打开,消防灭火气体可以进入通道

灭火。

无门槛设计,方便小推车等运输

工具无阻碍进出。

--按需定制化

根据现场机柜高度和机房顶部空间高度,可灵活调整封闭方案。

顶板全翻转方案

顶板半翻转方案

通道封闭窗口材料为透明玻璃,外观为与机柜同材质的冷轧钢板,机械强度高,通透性好,整体美观,与机柜风格一致,

和机房环境比较协调。

--安装可靠性

通道封闭各部件均安装固定在机柜承重框架上;

固定点主要分布在机柜承重框架的顶面、正面、侧面;

安装简单,整体协调美观,不会破坏机房现有装修,安装现场不用动火烧焊。

通道封闭方案:

构建一个优化的IT 运行微环境,提升应用的可靠性 降低数据中心能耗成本,大部分实施案例的回报时间不到一年

优化气流组织,避免冷热气流混合

青岛IDC

山东联通

通信专用局

部分定制化案例照片

通道内有建筑柱机柜列中有空缺

水蓄冷方案(DOC)

第一章工程概况简述 1.工程概况及主要工程内容 工程概况:本项目位于广东省清远市清新区太平镇万邦鞋业办公大厦,总建筑面积约:15000m2,空调面积:10000m2,建筑总高15m,其中楼层主要为研发室,办公室、制模室、空调设备房等等。 本项目主要工程内容为:中央空调机房冷源系统,冷冻水管立管、每楼层预留水管到管井口、蓄水槽防水、保温及布水工程等。 2.设计概况 本次设计采用大温差水蓄冷中央空调系统,夏季设计日总尖峰冷负荷为875KW。 冷源配置:整体规划主机选用1台250RT螺杆机及1台114RT螺杆式,该设备为甲方提供.主机夜间水蓄冷,即夜间为蓄冷工况:供回水温度为 4.5℃/12.5℃,白天为空调工况:供回水温度为7℃/12℃,冷却水供回水温度为32℃/37℃。两台主机在夜间可同时蓄冷或单独蓄冷,把一个蓄冷水池蓄满为止. 本项目一个蓄冷水池的总容积 800m3,按容积利用率0.95计算,蓄冷水池的可利用容积大于760m3。 本项目蓄冷工况运行时,水池进/出水温度为 4.5/12.5 ℃;放冷工况运行时,水池进/出水温度为12.5/4.5 ℃,均采用8 ℃温差。 考虑到水池中冷热水间的热传导和斜温层等因素影响,蓄冷水池的完善度一般取0.90~0.95;考虑到保温层传热的影响,冷损失附加率一般取1.01~1.02。因此,本项目实际蓄冷量约为3200kWh(即915RT)。

第二章制冷系统技术方案 1.设计依据 本方案设计依据如下: 业主提供的设计资料 《采暖通风与空气调节设计规范》 (GB 50019-2003) 《蓄冷空调工程技术规程》 (JGJ 158-2008) 《通风与空调工程施工质量验收规范》(GB 50242002) 《采暖通风与空气调节设计规范》(GB 50019-2003) 《全国民用建筑工程设计技术措施——暖通空调?动力》(2003版) 《全国民用建筑工程设计技术措施——给水排水》(2003版) 《蓄冷空调工程实用新技术》方贵银教授编著 2.负荷计算 水蓄冷空调系统的负荷计算采用国家现行《采暖通风与空气调节规范》(GB50019-2003)的有关规定,求得蓄冷—放冷周期内逐时负荷和总负荷,并绘制出负荷曲线图,作为确定系统形式、运行策略和设备容量的依据。采用系数法对逐时冷负荷进行估算。其中设计日各时段冷负荷值如下表:一期设计日尖峰冷负荷为1156RT,采用逐时负荷系数法,设计日逐时冷负荷分布如下: 表设计日各时段负荷值情况

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

关于数据中心机房冷热通道

关于数据中心机房冷热 通道 公司标准化编码 [QQX96QT-XQQB89Q8-NQQJ6Q8-MQM9N]

关于数据中心机房冷热通道(一) 来源:机房360 作者:?更新时间:2013-6-13 16:11:09 摘要:随着IT设备越来越趋向于大密度集中管理时代,数据中心所面临的散热问题也就越来越严重,TIA942标准的出现,为这一问题提供有效的规避指导依据。本期冷通道连载系列正是为解决这些问题,而进行了原理、实施、特点等方面的阐述,希望对涉及到该行业的设计人员、实施人员、IT管理人员、信息主管等有一定的帮助作用。 概述 随着IT设备越来越趋向于大密度集中管理时代,数据中心所面临的散热问题也就越来越严重,TIA942标准的出现,为这一问题提供有效的规避指导依据。本期冷通道连载系列正是为解决这些问题,而进行了原理、实施、特点等方面的阐述,希望对涉及到该行业的设计人员、实施人员、IT管理人员、信息主管等有一定的帮助作用。 一、论如何规划好数据中心气流组织 1、概述 数据中心机房在使用过程中,受各种因素制约限制,造成机房气流组织不合理、不通畅,由于IT设备是靠机房空调送入的低温风与其散热充分交换,带走热量,降低机架内温度,气流组织起到热交换媒介纽带作用,当热交换的纽带不顺畅、不合理时,现状只能是机房空调设备容量配置远远大于实际需求量,以满足机房需要。造成空调设备投资增大、运行费用增高,机房PUE值增大。 因此如何规划好数据中心机房气流组织,有着非常重要的意义,它是对机房内现有的不合理的气流组织,进行归纳分类、根据不同类型,进行合理改造。将冷热空气有效的隔离,让冷空气顺利的送入通信设备内部,进行热交换,将交换产生的热空气送回至空调机组,避免不必要的冷热交换,提高空调系统效率。减少机房运行费用。 2、数据中心机房中的几种气流组织形式 我们根据多年的规划气流组织经验,将数据中心气流组织分为以下四种形式即:机房气流组织形式、静压仓气流组织形式、机架气流组织形式、IT设备气流组织形式。下面分别介绍这几种气流组织形式: 1) 机房气流组织形式 在机房的气流组织中精密空调的送风方式起着决定性的作用。精密空调的送、回风方式不同,其整个机房的气流组织形式是截然不同的。下面是这两种送风方式的气流组织示意图:

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

关于-数据中心机房冷热通道

关于数据中心机房冷热通道(一) 来源:机房360 作者:GOCN编辑更新时间:2013-6-13 16:11:09 摘要:随着IT设备越来越趋向于大密度集中管理时代,数据中心所面临的散热问题也就越来越严重,TIA942标准的出现,为这一问题提供有效的规避指导依据。本期冷通道连载系列正是为解决这些问题,而进行了原理、实施、特点等方面的阐述,希望对涉及到该行业的设计人员、实施人员、IT管理人员、信息主管等有一定的帮助作用。 概述 随着IT设备越来越趋向于大密度集中管理时代,数据中心所面临的散热问题也就越来越严重,TIA942标准的出现,为这一问题提供有效的规避指导依据。本期冷通道连载系列正是为解决这些问题,而进行了原理、实施、特点等方面的阐述,希望对涉及到该行业的设计人员、实施人员、IT管理人员、信息主管等有一定的帮助作用。 一、论如何规划好数据中心气流组织 1、概述 数据中心机房在使用过程中,受各种因素制约限制,造成机房气流组织不合理、不通畅,由于IT设备是靠机房空调送入的低温风与其散热充分交换,带走热量,降低机架温度,气流组织起到热交换媒介纽带作用,当热交换的纽带不顺畅、不合理时,现状只能是机房空调设备容量配置远远大于实际需求量,以满足机房需要。造成空调设备投资增大、运行费用增高,机房PUE值增大。 因此如何规划好数据中心机房气流组织,有着非常重要的意义,它是对机房现有的不合理的气流组织,进行归纳分类、根据不同类型,进行合理改造。将冷热空气有效的隔离,让冷空气顺利的送入通信设备部,进行热交换,将交换产生的热空气送回至空调机组,避免不必要的冷热交换,提高空调系统效率。减少机房运行费用。 2、数据中心机房中的几种气流组织形式 我们根据多年的规划气流组织经验,将数据中心气流组织分为以下四种形式即:机房气流组织形式、静压仓气流组织形式、机架气流组织形式、IT设备气流组织形式。下面分别介绍这几种气流组织形式: 1) 机房气流组织形式 在机房的气流组织中精密空调的送风方式起着决定性的作用。精密空调的送、回风方式不同,其整个机房的气流组织形式是截然不同的。下面是这两种送风方式的气流组织示意图:

数据中心节能改造的7种解决方案图文【最新版】

数据中心节能改造的7种解决方案图文 点评网()报道:随着计算机网络业务量的迅速增长、服务器数量的增加,机房的面积及规模也在不断扩大,数据中心的能耗成本也迅速增加,并有赶超硬件成本的趋势。据权威机构调查显示,我国每年用于服务器的电源和冷却的总开支超过了20亿美元。对于已经建成投产的数据中心,如何实现有效的节能改造,需要从多方面考虑。本篇介绍了数据中心基础设施节能改造的几种主要解决方法。 一、设计一套机房整体监控系统 图IT设备负载变化曲线 从机房负荷和空调冷量配置来看,机房一般设计为N+X的安全运行模式,但从整个机房IT设备布局来看,由于机房面积较大,考虑其循环风量及减少机房局部温度死角等问题,及负载设备功耗的动态变化,精密空调群无法做到人为控制按照需求运行,机房发热量变化

无规律可以遵循,所有室内风机全速运行,压缩机由每台空调独自按照自己的需求进行控制,此种运行模式从运行费用角度来说是不经济节能的。如果强制空调群中的冗余设备进行关机运行,由于机房气流组织及温度变化规律很难掌握,人为控制空调的开机与关机也很难做到机房安全,因此可能存在局部温度不可控的现象。因此,机房精密空调群控対机房节能起到至关重要的意义。 机房专用空调群控节能的思路是:在保障机房设备正常运行的前提下,通过减少冗余空调设备的运行时间,来降低整个机房的能耗,实现空调系统的备份/轮循功能、层叠功能、避免竞争运行功能、延时自启动功能。 结合曙光自适应集群功率与能耗监控系统,进行精密空调集群集中管理,管理软件根据CPU占有率计算每一排的服务器功耗,根据负载分布情况及精密空调分布情况精确控制相应位置空调的工作状态,其中主要包括压缩机的启停和空调室内机的风扇启停。精密空调通过RS485网络与协议转换器通信,协议转换器通过以太网与管理节点协同工作,这样使不同厂家的精密空调(具有监控功能)能够通过曙光标准协议接口与管理节点进行数据交互每个服务器机柜内安装两个无线温湿度探头,每排机柜构成一个网络,通过物联网的组网方式形成一个温湿度监控网络,并通过以太网将数据上传至管理节点,形成双层监控网络,在监测到服务器到温的时候,开启机房空调,在节能的

数据中心空调水系统供冷规模设计 叶明哲

数据中心空调水系统供冷规模设计 原创2016-04-12叶明哲 摘要:数据中心水冷系统采用何种形式和规模建设,直接关系到数据中心建设投资的成本和运行的安全;本文主要对水系统供冷的规模和冗余情况进行阐述和探讨,并提出在大型数据中心基地可以采用区域供冷方式,设立两到四个独立的区域供冷中心,从而降低数据中心空调系统总投资和提升数据中心空调系统安全性。 供冷规模独立供冷区域供冷关键词 1.数据中心空调水系统规模 在大型数据中心,多幢数据机楼组成庞大的数据中心群机楼,制冷规模可以采用单幢数据机楼供冷或区域供冷。如中国电信在建的云计算内蒙古园区,就由42幢楼组成,每幢楼约18000M2,需要多个供冷中心。选择制冷中心的数量和制冷规模是必须要考虑的一个问题,这直接关系到数据中心的建设成本和空调系统安全性。 2.独立供冷(单幢机楼供冷) 就是每一幢机楼设置一个单独的制冷机房,该制冷机房只对自己这幢楼进行供冷。单幢机楼供冷系统比较简单,这有利于系统的维护和检修,当水系统发生故障时,只对该楼设备造成影响,不会影响到别的机楼,故影响面较小,是目前数据中心普遍采用的方式,下图1是独立供冷示意图: 图1 数据中心独立供冷示意图 但对于多幢机楼组成的数据中心,需要每个机楼均搞一个制冷机房,如云计算内蒙园区,按这种方式需要建42个独立的制冷中心。这种方式导致制冷机房较多,相对占地面积较大,由于制冷机组多,操作维护工作量较大;而且各个供冷中心内部,为了安全,也需要考虑冗余和备份,导致投资过大。 2.1.独立供冷的系统冗余

如果是A级机房(T4),水管管路必须是两个独立的系统,每个系统可以独立承担单幢楼数据中心所有的热负荷,运行时两个系统必须同时在线运行,单个系统故障不会对数据中心产生任何影响,这就是系统冗余。每个系统都独立承担100%的热负荷,这就是1+1系统冗余,如图2,但是这样投资很大。 图2 系统1+1冗余示意图 2.2.组件冗余 如果不满足系统冗余,仅仅是部分组件故障有冗余,就叫组件冗余。B级机房(T3),水系统管路也需要设计为两个系统,但是主机和末端可以公用,运行可以采用主备用方式进行,支持有计划的系统检修;组件冗余就是系统中常用的组件考虑冗余,如水泵采用N+1方式,冷机采用N+1方式,冷却塔采用N+1方式,机房空调采用N+X方式,这些就是组件冗余。 2.3.系统冗余和机组冗余投资比较 采用高标准,势必会带来投资的增大。采用系统冗余的投资很大,从纯正的字面理解,双系统可能是单系统200%的投资,但如果合理设计系统冗余,达到A级标准(T4)的同时,也是可以大幅降低初期的投资费用。 对于B、C级机房,机组不需要系统冗余,只需要考虑机组的冗余,一般采用的N+X 冗余,X=1~N,从实际运行来看,当N值较少时(N<4),2台机组同时出现故障的几率非常低,x取1基本已经可以应对突发故障情况。对于部分重要机房,不严格按照A级机房设计的,而又需要提高可靠性或者负载扩容的,可以先按照N+1配置,但预留扩容一台机组的位置。 3.区域集中制冷 单幢机楼供冷有一个缺点,就是1幢楼有一个制冷中心,如果数据中心够大,那建设的供冷中心就会足够多,如云计算内蒙云园区,按照单幢楼供冷的特点,需要42个供冷中心,而且各个数据中心内部需要冷机、水泵、冷塔、管路的冗余和备份,这些备份和冗余在各个

基于绿色数据中心节能建设分析

基于绿色数据中心节能建设分析 发表时间:2016-11-09T15:21:54.870Z 来源:《基层建设》2016年16期作者:刘宝新 [导读] 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 北京国信网通科技有限公司北京市 100085 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 关键词:绿色;数据中心;节能建设 1绿色数据中心节能指标分析 目前,衡量数据中心是否绿色的主要量化指标是采用绿色网格组织(GreenGrid)制定的能效比指标,又称为PUE(PowerUsageEfficiency)。 PUE=[TotalFacilityοfPower(设备总能耗)ITEquipmentPower(IT设备总能耗)×100%]=1+[空调能耗IT设备能耗]+[通风能耗IT设备能耗]+[配电能耗IT设备能耗]+[UPS能耗IT设备能耗]+[照明能耗IT设备能耗]+…… PUE反映了数据中心总能耗和计算、存储、网络等IT设备能耗的比值。PUE值大于1,其数值越小,说明能源利用率越高。目前,国外先进的数据中心的PUE值能达到1.5~1.8,而我国的数据中心的PUE值为2~3,说明仅有33%~50%的电能用在了IT设备运行上,50%~66%的电能消耗在空调、配电等设备上。 2建设绿色数据中心应遵循的原则 2.1突出绿色环保,科学拟制方案:绿色数据中心建设要结合数据存储使用需求,根据信息采集、传输、处理和分发的具体使用需求,以及IT设备的具体特点,围绕绿色环保对数据中心的供电方式、UPS电源容量、制冷方式、照明、风路、水路、电路、管网、主要IT设备的选型等方面进行综合考虑,进行统一规划设计,并逐项细化,寻求最高效益。 2.2突出节能高效,合理配置资源:首先要突出保障重点。根据实际和存放数据的重要程度,可将数据中心划分为高密区、中密区和低密区,重点对高密区的电源、通风、制冷设备采取多种技术措施,制订多种配置应用方案。其次要便于系统扩容。根据信息化建设的发展特点,基础设施需求会呈现非线性爆炸性增长趋势,所以在数据中心的规划建设中,要充分考虑选址合理、系统容量易于扩展。 2.3突出稳定可靠,提高重组能力:不能稳定可靠运行的数据中心是无用的数据中心,因此设计数据中心一定要在提高其重组再生能力方面下功夫。硬件设施方面,在电源引接上,要有两个以上不同方向的路由线路;在UPS配置上,要采取多组互联方式,保证每个PDU单元、每个机柜的接电排、每个设备的电源输入端子上,都有两路以上独立UPS电源引接;在风机、制冷及配线上要进行N+1备份,对重要的保障区域要实现1+1备份。软件配置方面,运用云计算及虚拟化技术,将故障的网络、计算、存储等设备的应用随时自动平滑迁移到其他网络、计算、存储设备上,保证业务的不间断运行,提高系统重组能力。 2.4突出安全智能,提高管控水平:在外围监控上,要设立安全隔离区,建立由电子围栏、红外探测、夜视监控、自动报警、门禁系统等组织的综合外围监控系统,以提高安保等级。在区域设置上,区分维护区、设备区、控制区,将数据中心规划为不同的安全防护等级,采取多种身份认证措施和不同的防护手段,对核心控制区要设置以生物特征识别为基础的身份认证系统,严格人员进出管理;对核心设备区要设置气体消防,保证设备安全。在防电磁泄露上,对电源线、信号线等要采用屏蔽电缆,避雷装置和电缆屏蔽层应接地,对核心设备区要加装电磁屏蔽设施,保证设备安全可靠;在智能管理上,对数据中心的周边安全、内部温(湿)度等环境参数,对风、机、电、水相关配套系统运行指标,对计算、存储、网络设备负载运行状态,要能做到实时感知、直观呈现、智能处理,提高运维管理效率。 3建设绿色数据中心应关注的问题 3.1减少IT设备能耗:根据能耗结构和能耗路径图,IT设备每减少能耗1W,数据中心将整体减少能耗2.84W。在保证效率的前提下,降低IT设备的能耗是一个最有效的方法。从实现技术上看,主要有两种方法:一是采用高效低耗的核心部件。受加工工艺和技术水平的影响,不同供应商提供的CPU等核心处理器在能耗上存在20%~40%的差异,要尽量采用节能产品。二是采用工作效率较高的新型服务器,如用刀片式服务器取代机架式或塔式服务器,设备可节能20%~30%。 3.2采用虚拟化技术:采用虚拟化技术对现有服务器、存储设备进行整合,在不增加硬件投入成本的情况下,将所有的服务器、存储设备虚拟成一个公用的资源池,统一灵活调配,提供服务,在提高性能的同时减少物理服务器、存储设备的数量,减少电力、制冷和场地成本。在服务器方面,传统服务器平均CPU利用率一般为7%~15%,经虚拟化整合后,CPU利用率能提高到60%~70%,还能实现虚拟服务自动迁移、数据存储整体读写速率、系统鲁棒性和高可用性的提高。 4.3提高制冷效率:机房空调对数据中心的安全稳定运行起保障作用,空调耗电量在数据中心的总耗能中约占50%,已经超过了IT设备本身的耗电成本。提高制冷效率,主要从两个方面入手:①使用精密空调替代普通空调。同功率的普通空调和精密空调产生同样的制冷量,前者耗电量是后者的两倍。②规划好机房内冷热气流通道,避免交叉。传统的机房空调直接对机柜吹风或采用下送风方式,送(回)风路径不合理,应采用冷热气流通道隔离技术,科学设计机房各要素布局,缩短冷气流的运行距离,实现精确定点的冷能量投送,以减小能量消耗,提高空调制冷效率。 3.4减少供电模式转换:交流直流转换过程中的热损耗是数据中心隐性耗电的“大户”,能耗高达20%~30%。在传统供电方式下,为UPS 充电,要将外部交流电源转换为直流为电池充电;使用UPS电源时,要将UPS电池直流转换为交流,为IT设备电源模块供电;IT设备工作时,由于CPU等耗电设备是直流供电,IT设备电源模块要将外部交流转换为直流。在条件允许的情况下,尽量使用直流供电的服务器,通过直流电源供电方式,减少交流和直流电源逆变的次数,以提高电能应用效率。 3.5加强运维管理:通过精确智能的运维管理工具,实时监控和分析各种IT设备负载情况,及时发现、处理、维修、停用异常的IT设

关于机房冷热通道系统运作

随着信息技术越来越趋向于大密度集中管理时代,数据中心所面临的散热问题也就越来越严重,本文正是为企业解决这些问题,而进行了原理、实施、特点等方面的阐述,希望对涉及到该行业的企业、设计人员、实施人员、IT管理人员、信息主管等有一定的帮助作用。 一、什么是冷热通道? “冷/热通道”封闭系统是一项应用于降低因工作而发热的设备温度的技术。主要应用于数据中心机房。中心机房因设备较多,普遍面临设备发热密度高电力能耗大、机房及机柜的空间不足,机房规划跟不上业务需求的增长。冷热通道系统的建立满足数据中心机房不断上升的散热要求,改善机房内部仍然存在局部热岛问题,避免冷空气与热空气直接混合,减少冷量的浪费。当机柜得到需求的冷量,整体机房的能耗PUE值就可以保持正常范围。 1 二、冷热通道的工作原理又是什么? 冷/热通道封闭系统是基于冷热空气分离有序流动的原理,冷空气由高架地板下吹出,进入密闭的冷池通道,机柜前端的设备吸入冷气,通过给设备降温后,形成热空气由机柜后端排出至热通道。热通道的气体迅速返回到空调回风口。 机柜密闭式涡轮后门,把热气汇集,通过垂直风管与天花板无缝联接。热回风与冷量完全隔离。因此提高内部的冷气利用率,带走更多设备产生热量,降低设备温度。

2 三、冷热通道存在的问题 1.自身原理存在弊端 因冷热通道的原理所致,需要对整个送风区域进行封闭处理(冷通道封闭),虽然大幅减少或避免风量和冷量的损耗,最终大幅提高制冷的效率,而对于此冷热通道封闭的方案,一直以来阻碍此方案大规模推广的首要问题就是消防问题,由于数据中心里运行的都是IT 设备,所以通常的消防会采用气体灭火。由于封闭了冷通道,一旦冷通道内设备起火,消防气体无法在规定时间内到达封闭区域内,势必会造成更大的损失。 2.过于依赖精密空调 因冷热通道主要因依赖精密空调调节温度,冷热通道的气流周转全需要经过精密空调的调节,又由于需要建设冷热通道时,要求对送风区域进行封闭处理,管理人员很难察觉精密空调的故障,从而导致出现许多问题。 3 四、如何规划好冷热通道气流组织 如何规划好数据中心机房气流组织,有着非常重要的意义,它是对机房内现有的不合理的气流组织,进行归纳分类、根据不同类型,进行合理改造。将冷热空气有效的隔离,让冷空气顺利的送入通信设备内部,进行热交换,将交换产生的热空气送回至空调机组,避免不必要的冷热交换,提高空调系统效率。减少机房运行费用。 1、针对数据中心机房中的几种气流组织形式解析

高效数据中心的六大绿色节能措施

高效数据中心的六大绿色节能措施 和一两年前相比,很多数据中心的运营者们如今也并未热衷于“绿色”这个词。这当然不是说他们已经抛弃了旨在提升能源效率,更好地利用IT资源的各种项目,因为这些项目既可以削减运营成本,又能减少对环境的影响。 市场咨询公司451集团在考察了被大批组织和机构所接受的可降低数据中心运营成本的六种绿色实践之后,发布了一份内容全面的报告:《高效节能的数据中心实践》。其中的一些实践做法,如进行数据中心的全面规划,寻找可替代传统制冷系统的方案等可能早已被大家所熟知;其他做法,如采用直流供电和预制件数据中心等,则很少有人谈及,或者被认为不可持续而不予理会。 在计划升级其设施时,数据中心的运营者们应该好好考虑或者重新考虑一下这些趋势。当然,并非所有这些实践都适合每一个组织,但如果你不去看看,那你就有可能永远都不知道有这些实践做法存在。 实践1:采取综合的可提升整体效率的方法 数据中心运营者需要通过结合了集成技术和各种手段全面处理效率问题的方法,而不能孤立地去对待每个项目。这其实并不是什么开创性的概念:绿色网格组织从2008年成立以来就一直在提“通盘考虑”的口号。而这样做的最大好处之一就是可以促进各部门间,尤其是设施部门和IT 部门间的协同,确保所有的参与者在对数据中心进行升级改造时能够意见一致。举例来说,IT 部门订购了一个用于关键任务项目的高端服务器机柜,那么他只需要在机柜到达数据中心时打听一下是否有足够的电力或冷却能力支持这个机柜便可。 组织内的协作并未到此结束。为了努力减少能源浪费,很多企业部门之间如今已越来越开放,曾经是各部门最隐秘的东西也可以公开。这方面最有名的例子就是Facebook,利用其开放计算项目,该公司有关高效服务器、机柜和冷却设备的蓝图也都在开源。 实践2:更智能的冷却系统 数据中心运营者们正逐渐意识到,数据中心设施并非存放肉类的大冰柜,只需要适当制冷即可。虽说IT管理人员不希望设备因过热而失灵。但如果你花在IT上的每个美元都得分出50美分用于制冷的话——这正是很多传统数据中心的平均PUE比值——那几乎可以肯定你是在烧钱。 有好多种办法可以降低冷却成本,其中一些技术始终不被企业所接受,生怕会毁掉他们的宝贵硬件。这其中就包括液体冷却技术,该技术被认为会产生很多维护方面的问题,而且使用范围有限。但是来自绿色革命冷却公司的一种液体冷却方法采用了低成本、无污染的绝缘液体,据称其吸热能力是空气的1200倍。 至于空气冷却这种免费冷却方法则要比液体冷却更受欢迎。这个概念也很简单:只要把数据

数据中心节能方案分析

数据中心节能方案 分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其它专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,当前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,而且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆

放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,可是她们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工

数据中心八大节能八个步骤

数据中心八大节能八个步骤 现有的节能技术大都没有顾及电力需求增长的主要因素,只考虑如何降低整体能耗成本。企业为数据中心节省能源同时提高效率,其实还有更有效的办法。只要实现高效存储数据,减少机器及磁盘数量,就能解决急速增长的能源消耗问题。这个策略不仅可以减少系统的复杂性,降低成本,还可以改善网络效率和性能表现,从而对新的业务需求能做出更好的反应。 1. 整合服务器和存储系统 服务器本身已消耗了数据中心的一半能源,而存储系统是另一大能源消耗者。事实上,窗口数据的大幅增长,导致了窗口档案服务器和直接附加存储系统的数目急增。因此,只需设立一个存储网络,整合服务器和存储系统,减少设备数量,数据中心的可用能源就能迅速增加,从而提高能源效益。 2. 选用高容量磁盘驱动器 典型的SATA磁盘驱动器,与相同容量的光纤通道(Fibre Channel) 磁盘驱动器相比,可以节省大约一半的能源。同时,它们可以提供最高的磁盘驱动器可用存储密度,进一步降低能源消耗。一些具有磁盘修复及数据保护技术的SATA磁盘正日趋流行,成为很多企业应用的理想选择。 3. 减少磁盘驱动器数量,防止磁盘故障 SATA磁盘驱动器的数据存储量比光纤通道主磁盘驱动器多,但我们不能因此而忽略了数据可靠性。当前流行的双区间(Dual-parity) RAID-DP,能够提供更高的存储利用率和错误容忍度,可同时修复两个故障磁盘驱动器的数据。 4. 将数据转移到更高效的存储系统 为确保最有效地使用存储资源,可以把数据转移到次存储系统以减低主存储的负荷。一个完善的信息服务器能自动把存取率较低的数据,自动由主存储器转移到存储效益较高的次存储系统去。 5. 提高利用率 据业内估计,存储利用率只有25%-40%,即大约有60%-75% 的存储容量还没有被使用,却在不停地消耗能源。市场上有些方案能有效解决这个问题,通过共享存储,让所有磁盘都可以存取数据,平均存储利用率可高达60%。 6. 单方案多应用 只要掌握了数据备份的窍门,就能大幅节省存储空间。第一,只存储变更的数据。第二,用数据备份实现多个不同应用,以降低对特定存储系统的依赖,同时将后备系统用于验证及异步灾难恢复,减少特定存储系统的数量,节省更多能源。第三,重复数据删除技术(Deduplication) 可以避免对存储于主磁盘阵列的多余数据进行重复备份,缓解增加次存储容量的需求。

数据中心节能方案分析

数据中心节能方案分析(总7 页) -CAL-FENGHAI.-(YICAI)-Company One1 -CAL-本页仅作为文档封面,使用请直接删除

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。

数据中心冷热通道隔离封闭式机房的设计及其实践

? ?

数据中心冷热通道隔离封闭式机房的设计与实践 来源:《机房技术与管理》作者:更新时间:2010-4-20 12:24:36 摘要:冷热通道隔离封闭是机房节能减排的措施之一。机柜布置可以适当改变排列方式以及采取适当的措施形成冷热通道的隔离,改变环境气流组织和减低冷通道的温度梯度,改良机柜内的有效制冷效果,从而达到节能的目的。 1整体规划设计原则 1.1 关键设备对机房的发展要求 对高校的网络信息中心(数据中心)而言,需要有众多的服务器供教学教务等的业务部门使用,而且今后的发展规模也是一个不确定的因素。信息中心的主要服务设备有存贮系统、主机系统、高性能机架式服务器和刀片式服务器等。发展方向是提高机器的空间密集度达到节约机房空间和相对的能耗减少;特别是一个机柜中配制刀片服务器时,电力的需求大大增加,一个"满配"的刀片 服务器,其所需要的电力大约为5~10kW,一个机柜部署多台刀片服务器时,电力不足的矛盾非常突出,散热问题也突显出来。因此运行虚拟服务器系统也是今后解决这个问题的方法之一。

通过高性能服务器和虚拟服务器系统的使用,可大大减少实体服务器的数量,在满足业务使用要求的前提下,达到了节能减排的目的,并使机房配套设备的投资也大大减少。 1.2 节能减排 越来越强处理能力的服务器,越来越大容量的数据存储设备和网络设备,需要消耗更多的电能。而集成度越来越高的设备,发热量越加集中,导致机房温度控制是个很大的问题。只有对降低机房能耗的新技术与新方法进行研究,力求通过合理选用服务器机架、合理进行散热规划、优化机房设计、布局、使用等方面,提高机房散热效率,降低数据中心机房的整体能耗,才能达到节能减排的目标。 1.3 UPS电源 由数据中心的特点可知,虽然数据中心是整体建设的,但数据中心的设备的增加是逐步的,因此供电能力也应该是阶段式提高才行。 为此,我们在规划设计中,让UPS机房相对独立,并留有UPS设备的扩展空间。数据中心机房的机柜一次性到位,数据中心机房的电源分配列头柜与UPS电源房的电源输出配电柜之间的电缆的容量按全部机柜“满载”容量的供电量配置设计,UPS设备的供电能力则不满配。UPS供电能力按机房的设备量阶段性地增加,有扩展的余地。 UPS供电系统,可采用2N或者2 (N十l)方式,确保供电可靠性和扩展性。通过UPS电源的按需阶段式扩展,可以避免大马拉小车的现象,UPS电源设备的投资减少的同时,也达到了节能减排的目的。 1.4 机房空调 机房的散热冷却是确保数据中心安全可靠运行的基本条件之一,通常是在机房内安装精密空调。对于数据中心而言,当机房的设备"满载"运行时,会有较大的发热量,但对新建的数据中心而言,由于设备的增加会有一个较长的时间过程,而且一年中不同季节的空调的负荷量也是在变化的,要适应于散热容量变化量较大的发展需求,为了达到节能减排的目的,我们在规划设计中,选配了两台空调,空调总容量要满足机房设计“满载”时的调节能力,每台空调有双机组、能分组独立运行,这样2台空调4个机组能按热容量自动地动态调整,按需自动运行不同数量机组来满足经济运行,从而完成了空调机组运行的节能减排。 1.5 场地布局

冷通道隔离在改善数据中心机房局部热点中的应用研究

冷通道隔离在改善数据中心机房局部热点中的应用研究 发表时间:2019-03-12T10:44:36.953Z 来源:《基层建设》2018年第35期作者:王志坚 [导读] 摘要:随着网络技术的普及和发展应用,对服务器的需求也在不断增长,由于IT设备的特殊性,在机房内设备运行中维持其所需环境是十分重要的,特别是其中的温度环境。 无锡尚航数据有限公司江苏无锡 214074 摘要:随着网络技术的普及和发展应用,对服务器的需求也在不断增长,由于IT设备的特殊性,在机房内设备运行中维持其所需环境是十分重要的,特别是其中的温度环境。 关键词:冷通道;数据中心机房;局部热点;气流组织 随着在数据中心机房采用大量的新型高热密度机架式服务器、刀片式服务器,我国数据中心的热密度也在不断攀升,且这一过程在不断持续。服务器机柜内温度过高、服务器宕机的问题也很常见,导致其出现宕机问题的原因,除了服务器本身出现故障之外,就是环境温度过高和断电因素,由此可见保证数据中心机房的正常运行,必须解决局部热点问题,对冷通道隔离技术具备更加科学、全面的认知。 1.机房局部热点产生 在数据中心机房运行中,导致机柜温度过高的原因主要是两方面:一方面是服务器数量的不断增加,使得数据中心空间愈加紧张,在单个机柜中需要安装多个服务器;另一方面是随着计算机的发展,其外形更加紧凑,尤其是在刀片式服务器和机架式服务器出现后,其应用在数据中心机房,功耗高而散热也更大,使得数据中心的机柜内温度不断上升,最终超过计算机设备等可以承受的正常范围。数据机房在铺设高架地板情况下,空调冷空气会透过地板下通道传送到各机柜,而冷空气在传达到远程机柜时,风量会在传达过程中不断减弱,而高架地板下也布置着很多电缆线和管路,阻碍了冷空气的传送,使得数据中心机房产生局部热点问题。在数据中心机房建设运行中,局部热点产生的原因主要有六方面,即单个机柜对应的穿孔底板的送风量与机柜内IT设备需要风量不匹配、机柜内空闲U位未安装、同列相邻机柜间空隙存在、机柜底部与静电底板间空间不合理、热负荷与投入制冷量的匹配性差、机柜孔密度与设备风量匹配不佳等。 2.数据中心机房对温度的要求 机房中包含数据中心的多个子系统,主要安装和保护机柜中的IT设备,而IT设备的组成主要是半导体组件、各种特殊材料和工艺制作的器件,对物理环境有着严格要求。数据机房中,对空气的调节是重要的环节,使环境达到特定标准。并保持IT设备的正常运行,对机房内部温度也作出了以下要求,具体如下表所示: 表1 开机时间房内温度要求 3.冷通道技术应用 3.1冷通道技术原理 在数据中心机房的运行中气流组织发挥着重要作用,因其IT设备的运行中功耗大,需要通过机房空调充分交换送入的冷风和散热,将设备运行产生的热量排除,使机架的温度得到有效降低,气流组织的热交换中扮演着重要角色,是重要的媒介纽带。但在数据中心机房中由于多种因素制约,会使得气流组织出现不合理或者不通畅的问题,难以发挥其应有作用,需要将机房空调设备的容量配置加大,使其满足机房建设的需求。而空调组织形式不合理的情况下,会加大空调设备投资,增大机房的PUE值。因此,在机房运行中,需要规划好气流组织。冷通道技术则是针对这一需求进行满足。根据相关架构标准,可以采用冷热通道的方式,对机房中的冷热空气进行分区,以此来安装相关设备和机架。利用冷通道技术,可以有效隔离物理层面的冷热空气,传送交换产生的热空气到空调机组,减少不必要的冷热交换。在密封处理机房冷通道后,可以将大部分冷风送入服务器机柜,有效避免在其运行使用中存在冷热气流短路,有效降低了机房空调的能耗,对增强空调风量、提高冷风利用率具有积极意义。 3.2冷通道隔离技术具体实施 首先要科学设计冷通道施工,保证其封闭设计的科学合理,实际数据中心建设中对机柜的摆放一般是面对面的方式,对此可采用顶棚、通道门和玻璃板的方式,将冷热系统实现物理分离;其次是对冷通道与消防系统的联动设计,要考虑到联动控制问题,在冷通道设置中可以采用折叠式结构作为顶部盖板,其闭合控制可以采用直流电磁吸的方式,确保其可以正常发挥作用,在启动火灾报警系统之后,通过自动触发方式,或者人为行动开启顶部盖板,在警情消除、警报解除后,经过工作人员的认真检查和确认,对其进行手动闭合;最后是对冷通道监测功能的设计,在数据中心机房局部热点处理中使用冷通道技术,需要使其具备能够正常运行保证作用的发挥,具体要监测的内容包括了冷通道各测点的温湿度、顶端状态、侧门状态等,可以强制打开其顶端和侧门等。并且其良好运行,可以利用距离控制和监测功能,集成各项信号,从而形成机房管理控制中心。 3.3冷通道隔离的技术特点 在数据中心机房采用冷通过技术,可以有效分离机房冷热气流,该系统具备以下几方面特点:

相关文档
最新文档