数据中心(IDC机房)空调冷却系统分类及散热特点

数据中心(IDC机房)空调冷却系统分类及散热特点
数据中心(IDC机房)空调冷却系统分类及散热特点

数据中心(IDC机房)空调冷却系统分类及散热特点

合理、有效、最大化利用室外天然自然冷源,降低空调系统的能耗、提高空调系统全年运行效率是空调系统设计建设的基本原则。在满足服务器设备正常安全运行需要的空气温度、湿度、洁净度的条件下,空调系统的冷却热交换环节少、各环节换热效率高、换热距离短,快速地把服务器散热带出机房,是数据中心选择空调冷却系统形式、提高冷却效率的关键,也是今后数据中心冷却系统发展的方向。

1、数据中心机房的散热特点

数据中心机房内服务器设备散热属于稳态热源,服务器全年不间断运行,这就需要有一套全年不间断运行的空调冷却系统,把服务器散热量排至室外大气或其他自然冷源中。为保证服务器的冷却需要,即使在冬季也需要提供相应的冷却系统运行。随着IT 技术的不断发展,机柜的功率密度不断提高。几年前,服务器机柜功率大多在1~2kW/机架,现在绝大多数数据中心的服务器功率达到了5~6kW , 最高的功率已高达35kW/机架,随着未来服务器技术进步,其功率密度还将进一步提高。因此,数据中心需要根据数据中心功率密度的不同,同时考虑到建筑规模、负荷特点、当地气候条件、能源状况、节能环保要求等因素,综合比较后确定合理的空调冷却系统。

2、数据中心冷却系统组成

数据中心空调冷却系统由空调末端设备、输配系统、冷源部分以及控制系统等几部分组成。

3、数据中心冷却系统冷源

数据中心暖通空调选型

数据中心暖通空调选型 发表时间:2018-09-11T15:42:16.617Z 来源:《建筑学研究前沿》2018年第11期作者:龙志威 [导读] 由于数据中心内IT负载的电能最终都将转化为热能,所以为维持数据中心正常运行的空调解决方案就变得至关重要。 东莞深证通信息技术有限公司 523690 摘要:数据中心空调系统的主要任务是为数据处理设备提供合适的工作环境,保证数据通信设备运行的可靠性和有效性。本文结合工程实例浅析一下数据中心机房空调设计的特点和机房空调的节能措施。 关键词:数据中心;暖通空调;选型 引言:由于数据中心内IT负载的电能最终都将转化为热能,所以为维持数据中心正常运行的空调解决方案就变得至关重要。 1、工程项目概况 本工程为某市某企业数据中心机房,该企业数据中心位于一幢28层高层建筑的14层,15层为本高层建筑的消防避难层,14层为标准办公楼层,需利用14层的办公空间建设成为数据中心机房。本工程数据机房采用精密空调进行配置,因此我们需要对机房区域的热负荷进行计算,根据所得的热负荷才能选择所用的精密空调。由于机房的热负荷来源很多,且目前我们无法获知所有热负荷的数量,因此在没有确定各项热负荷具体数量之时,可以按照电子计算机机房通用的估计方法进行机房空调制冷量的预估。 2、机房区域内制冷量的计算及选配方案 在净空高度为2.5~3.7m时,其计算机房按300-400 kcal/h.m2来取值。由于主机房设备较多,在此我们建议取值为400kcal /h.m2 (1W=860kcal)根据上述计算公式,主机房面积为154m2,所需要的总制冷量即、:400kcal×265 m2÷860=71.6KW;根据以上计算,工程项目在数据机房内配置了4台制冷量为24.6KW,“艾默生”Liebert.PEX 系列P1025DD13JHS12K1D000PA000机房专用精密空调,采用冷却水加冷冻水双冷源空调,送风方式采用下送风方式。组成3+1冗余方式对机房区域保持环境的恒温恒湿,每台单机总制冷量为24.6 KW,3台精密空调总冷量为73.8KW。数据机房精密空调介绍: 2.1艾默生Liebert.PEX系列机房专用精密空调描述 Liebert.PEX─面向全球的高端精密空调系统,Liebert.PEX2机组是基于艾默生全球研发与设计平台的高端机组,产品系列完备,具有风冷、水冷、乙二醇冷、双冷源(风冷+冷冻水、水冷+冷冻水、风冷+Freecooling、水冷+Freecooling)、冷冻水和冷冻水双盘管机型制冷量范围宽,风冷、水冷、乙二醇冷机组20kW~100kW,冷冻水机组28~151kW。 2.2Liebert.PEX机组的特点 具有高可靠性、高节能性、全寿命低成本。在同等制冷量条件下,占地面积最小。侧面及背面不需要维护空间,前面只需要600mm维护空间可拆卸后搬运,保证重新组装与整机无差别,适合特殊场地搬运(如利用小电梯或狭小通道)艾默生Copeland高效涡旋式压缩机,直接适合环保制冷剂(R407C)室内EC风机标配,节能且满足不同机外余压需求,下出风机组EC风机下沉设计,使整机更节能大面积V型蒸发器,快速除湿设计,确保节能独特的高效远红外加湿系统,加湿速度快,适应恶劣水质,低维护量,全中文图形显示屏以及iCOM强大的群控与通讯功能(见图一)。 图一艾默生1Liebert.PEX机组 2.3Liebert.PEX机组的设计 Liebert.PEX风冷系统的室内机由压缩机、蒸发器、加热器、风机、控制器、远红外加湿器、热力膨胀阀、视液镜、干燥过滤器等主要部件组成。水冷系列还包括高效板式换热器、电动球阀。室内侧制冷系统和水系统中可能涉及维护、更换的器件全部采用易拆卸的Rotalock连接方式,使维护更方便。 2.4主机房冷负荷估算 主机房面积:270m2;主机房冷负荷主要包括服务器设备冷负荷、照明冷负荷、建筑围护结构冷负荷、新风冷负荷、以及操作人员冷负荷:服务器设备冷负荷估算:272.8KW=(64-7)*5KVA*0.8+7*8KVA*0.8;(功率因素取值0.8、服务器机柜设备散热量取值5KVA/台、小型机机柜设备散热量取值8KVA);照明冷负荷估算:6.75KW=25 W/ m2*270 m2,(照明冷负荷单位面积取值25 W/m2);建筑围护结构冷负荷估算:13.5KW=50 W/ m2*270 m2,(建筑围护结构冷负荷单位面积取值50 W/m2);新风冷负荷:13.5KW=50 W/ m2*270 m2,(新风风量按照维持机房正压,新风冷负荷取值为单位面积50 W/m2);操作人员冷负荷:1.3KW=0.13KW/人*10人,以10人计算;综上所述,主机房总的冷负荷为:307.85KW=272.8KW+6.75KW+13.5KW+13.5KW+1.3KW。 2.5空调选配方案 经过主机房的冷负荷进行估算后,根据Liebert.PEX机组空调显制冷量的技术参数及风量,可以选取相应的机房空调的型号。主机房空调按照N+1方式进行配置,即满足主机房的冷负荷,再预留出1台的冗余制冷量。空调机组可组网轮换运行,均衡每台机组运行时间,当某一台机组出现故障,备用机组自动启动,提高空调系统可靠性。 由于室内外空调机组分别安装在建筑的14、15层,在空调选配时,应注意空调机组的体积,如体积比较大,必须经过空调机的拆解,设备搬运到位后再进行组装。 3、新、排风系统 本工程新、排系统全部由大楼统一设计及施工,数据机房要求维持一定的正压,数据机房与其它房间、走廊间的压差不应小于4.9Pa,

IDC机房资源动态管理系统

安徽移动IDC机房资源动态管理系统简介 一、业务概述 互联网数据中心(Internet Data Center)简称IDC,是中国移动整合网络通信线路、 带宽资源,建立的标准化的电信级机房环境,可以为企事业单位提供服务器托管、租用、接入、运维等的一揽子服务。 IDC资源管理的效率是业务发展和运营的基础,涉及空间资源(机房/机架/机位)、 IP、、端口、带宽、存储、设备等。资源管理的范围还包括设备资源信息、设备用户信息、设备存放信息、设备端口信息。同时,IDC有别于传统机房,其承载的业务种类多,业务 系统增减及系统升级扩容频繁,因此资源是动态变化的,分配繁琐、变更复杂、记录琐碎,查询统计困难是传统的管理方式的存在的主要问题。如何提升IDC资源管理的水平,应对 复杂的多业务环境(自有业务、合作业务、内容引入、集体托管),满足互联网业务发展和IDC向服务转型的需要,改变传统的IDC管理模式,优化资源分配流程,最大化利用资源,实现多维度管控,同时满足公司低成本高效运营的要求是IDC运营的当务之急。 二、原有流程 经调研,目前全国各地IDC机房均采用传统的手工模式实现资源管理,尚未有IDC机 房采用电子化手段结合条码管理方式,实现对不同层级的设备及其资源的动态管控、值班人员的现场无线维护。目前传统的资源手工分配流程如下: A、IP地址的分配,使用电子表格记录IP地址,每个维护人员各自记录每次的IP分配变化,一段时间检查汇总一次。 B、机架、机位的分配,使用电子表格记录,在分配前,需要去机房现场查看,然后具体分配机柜、机位。 C、端口分配,没有记录,每次远程登录到网络设备上分配,分配后修改端口的别名进行记录。 D、机房托管资源的记录,使用电子表格记录。合作伙伴或客户提供托管资源清单,盘点验收后作为机房托管资源的记录。 通过上述的IDC资源管理方式,虽然解决了IDC资源登记、状态信息、资源归属的记录和查询。但在实际使用中也存在较多的问题: 1.IDC 机房内设备数量众多,传统的设备标签信息仅能记录设备归属信息,信息量小、不全面,运

绿色数据中心空调系统设计方案

绿色数据中心空调系统设计方案 北京中普瑞讯信息技术有限公司(以下简称中普瑞讯),是成立于北京中关村科技园区的一家高新技术企业,汇集了多名在硅谷工作过的专家,率先将机房制冷先进的氟泵热管空调系统引进到中国。 氟泵热管空调系统技术方案适用于各种IDC机房,通信机房核心网设备,核心机房PI路由器等大功率机架;中普瑞讯对原有的产品做了优化和改良,提高节能效率的同时大大降低成本。 中普瑞讯目前拥有实用专有技术4项、发明专有技术2项;北京市高新技术企业;合肥通用所、泰尔实验室检测报告;中国移动“绿色行动计划”节能创新合作伙伴,拥有国家高新企业资质。 中普瑞讯的氟泵热管空调系统技术融合了结构简单、安装维护便捷、高效安全、不受机房限制等诸多优点,目前已在多个电信机房得到实地应用,取得广大用户一致认可,并获得相关通信部门的多次嘉奖。 中普瑞讯的ZP-RAS氟泵热管背板空调系统专门用于解决IDC高热密度机房散热问题,降低机房PUE值,该系统为采用标准化设计的新型机房节能产品,由以下三部分组成。

第一部分,室内部分,ZP-RAS-BAG热管背板空调。 第二部分,室外部分,ZP-RAS-RDU制冷分配单元。 第三部分,数据机房环境与能效监控平台。 中普瑞讯的ZP-RAS氟泵热管背板空调体统工作原理:室外制冷分配单元(RDU)机组通过与系统冷凝器(风冷、水冷)完成热交换后,RDU通过氟泵将冷却后的液体冷媒送入机房热管背板空调(BGA)。 冷媒(氟利昂)在冷热温差作用下通过相变实现冷热交换,冷却服务器排风,将冷量送入机柜,同时冷媒受热汽化,把热量带到RDU,由室外制冷分配单元(RDU)与冷凝器换热冷却,完成制冷循环。 1.室外制冷分配单元(RDU)分为风冷型和水冷型两种。制冷分配单元可以灵活选择安装在室内或室外。室外RDU可以充分利用自然冷源自动切换工作模式,当室外温度低于一定温度时,可以利用氟泵制冷,这时压缩机不运行,充分利用自然免费冷源制冷,降低系统能耗,同时提高压缩机使用寿命。 北方地区以北京为例每年可利用自然冷源制冷的时间占全年一半以上左右。从而大大降低了机房整体PUE值,机房PUE值可控制在较低的数值。 2.热管背板空调(ZP-RAS-BGA)是一种新型空调末端系统,是利用分离式热管原理将空调室内机设计成机柜背板模

数据中心机房空调系统气流组织研究与分析

IDC机房空调系统气流组织研究与分析 摘要:本文阐述了IDC机房气流组织的设计对机房制冷效率有重要影响,叙述现有空调系统气流组织的常见形式。同时重点对IDC机房常见的几种气流组织进行了研究与分析,对比了几种气流组织的优缺点,从理论与实践中探讨各种气流组织情况下冷却的效率。 关键词:IDC、气流组织、空调系统 一、概述 在IDC机房中,运行着大量的计算机、服务器等电子设备,这些设备发热量大,对环境温湿度有着严格的要求,为了能够给IDC机房等提供一个长期稳定、合理、温湿度分布均匀的运行环境,在配置机房精密空调时,通常要求冷风循环次数大于30次,机房空调送风压力75Pa,目的是在冷量一定的情况下,通过大风量的循环使机房内运行设备发出的热量能够迅速得到消除,通过高送风压力使冷风能够送到较远的距离和加大送风速度;同时通过以上方式能够使机房内部的加湿和除湿过程缩短,湿度分布均匀。 大风量小焓差也是机房专用空调区别于普通空调的一个非常重要的方面,在做机房内部机房精密空调配置时,通常在考虑空调系统的冷负荷的同时要考虑机房的冷风循环次数,但在冷量相同的条件下,空调系统的空调房间气流组织是否合理对机房环境的温湿度均匀性有直接的影响。 空调房间气流组织是否合理,不仅直接影响房间的空调冷却效果,而且也影响空调系统的能耗量,气流组织设计的目的就是合理地组织室内空气的流动使室内工作区空气的温度、湿度、速度和洁净度能更好地满足要求。 影响气流组织的因素很多,如送风口位置及型式,回风口位置,房间几何形状及室内的各种扰动等。 二、气流组织常见种类及分析: 按照送、回风口布置位置和形式的不同,可以有各种各样的气流组织形式,大致可以归纳以下五种:上送下回、侧送侧回、中送上下回、上送上回及下送上回。 1) 投入能量利用系数 气流组织设计的任务,就是以投入能量为代价将一定数量经过处理成某种参数的空气送进房间,以消除室内某种有害影响。因此,作为评价气流组织的经济指标,就应能够反映投入能量的利用程度。 恒温空调系统的“投入能量利用系数”βt,定义: (2-1) 式中: t0一一送风温度, tn一一工作区设计温度, tp一一排风温度。 通常,送风量是根据排风温度等于工作区设计温度进行计算的.实际上,房间内的温度并不处处均匀相等,因此,排风口设置在不问部位,就会有不同的排风温度,投入能量利用系数也不相同。 从式(2—1)可以看出: 当tp = tn 时,βt =1.0,表明送风经热交换吸收余热量后达到室内温度,并进而排出室外。 当tp > tn时,βt >1.0,表明送风吸收部分余热达到室内温度、且能控制工作区的温度,而排风温度可以高于室内温度,经济性好。 当tp < tn时,βt <1.0,表明投入的能量没有得到完全利用,住住是由于短路而未能发挥送入风量的排热作用,经济性差。 2) 上送下回 孔板送风和散流器送风是常见的上送下回形式。如图2-1和图2-2所示.

互联网数据中心机房建设方案

互联网数据中心机房建设方案 经历了 ISP/ICP飞速发展,。COM公司的风靡后,一种新的服务模式一一互联网数据中心 (Internet Data Center,缩写为IDC)正悄然兴起。它在国外吸引着像AT&T AO-、IBM、Exodus、UUNET等大公司的巨资投入;国内不但四大电信运营商中国电信、中国网通、中国联通、中国吉通开始做跑马圈地,一些专业服务商如清华万博、首都在线和世纪互联等,也参与了角逐。 IDC( Internet Data Center ) - Internet 数据中心,它是传统的数据中心与 Internet 的结合,它除了具有传统的数据中心所具有的特点外,如数据集中、主机运行可靠等,还应 具有访问方式的变化、要做到7x24服务、反应速度快等。IDC是一个提供资源外包服务的 基地,它应具有非常好的机房环境、安全保证、网络带宽、主机的数量和主机的性能、大的存储数据空间、软件环境以及优秀的服务性能。 IDC作为提供资源外包服务的基地,它可以为企业和各类网站提供专业化的服务器托管、空间租用、网络批发带宽甚至ASR EC等业务。简单地理解,IDC是对入驻(Hosting) 企业、商户或网站服务器群托管的场所;是各种模式电子商务赖以安全运作的基础设施,也 是支持企业及其商业联盟(其分销商、供应商、客户等)实施价值链管理的平台。形象地说, IDC 是个高品质机房,在其建设方面,对各个方面都有很高的要求。 IDC的建设主要在如下几个方面: 网络建设 IDC 主要是靠其有一个高性能的网络为其客户提供服务,这个高性能的网络包括其 - AN、 WAh和与In ternet 接入等方面。 IDC 的网络建设主要有: - IDC 的- AN 的建设,包括其 - AN 的基础结构, - AN 的层次, - AN 的性能。 -IDC的WAN勺建设,即IDC的各分支机构之间相互连接的广域网的建设等。 -IDC的用户接入系统建设,即如何保证IDC的用户以安全、可靠的方式把数据传到 IDC 的数据中心,或对存放在IDC的用户自己的设备进行维护,这需要IDC为用户提供相应的接 入方式,如拨号接入、专线接入及VPN等。 - IDC 与 Internet 互联的建设。 -IDC的网络管理建设,由于 IDC的网络结构相当庞大而且复杂,要保证其网络不间断对外服务,而且高性能,必须有一高性能的网络管理系统。 服务器建设 IDC的服务器建设可分为多个方面,总体上分为基础服务系统服务器和应用服务系统服务器,主要有:

IDC数据中心机房空调选型配置

IDC数据中心机房空调选型配置 机房空调选型依据是根据数据中心里的设备发热量和房间面积计算出来的。 深圳雷诺威精密空调设备有限公司专业研发设计销售,产品范围:机房空调、精密空调、恒温恒湿空调、基站空调、行间制冷空调(列间机房空调)。 制冷方式:风冷型、水冷型、冷冻水型、双冷源机组、节能机组、变频机组。 风冷式精密空调特点: 1.精密空调的工艺设计 坚固的金属壳体,全部壳体采用1.2mm以上的钢板。良好密封性,内衬隔热吸音材料,可防止气流泄漏及降低噪音机组带有铰链的前门,容易打开,不需提供专用工具,就能提供正常的维护服务。 美观大方的防腐蚀环保烤漆涂层。外涂环氧树脂,不但美观大方,同时可以达到防腐蚀的目的,使得机体的寿命可以增加到10年以上。

2.精密空调采用涡旋式压缩机 采用先进的高效压缩机系统,可选单独或并联式组合;噪音低,高效节能,可靠性高,使用寿命长;全系列采用先进的压缩机效能高,运动部件少,延长机组寿命,无液击现象。压缩机内装有缺相保护装置,在电源缺相或压缩机过载的情况下,能自动停止压缩机工作,保护压缩机电机。 3.精密空调采用大面积蒸发器 蒸发器设计选用内螺纹管,亲水铝膜翅片,高效正弦波换热铝翅片,大面积的散热盘管,比使用光铝膜翅片具有更高的换热效率。采用吸透式气流,使空气分布更均匀。 4.精密空调采用电极式加湿器 独特的可拆卸电极式加湿器位于机组下部与压缩机共处一个独立空间内,与气流隔离,不停机也可进行维修服务。可拆卸滤蕊,电极及罐体进行清洗,非专业人士也可进行。对水质无特殊要求,无须事先预处理。根据水质软硬程度和机房湿负荷大小,可由电脑编程控制加湿器自动清洗时间和加湿量调节,方便简单,同时大大延长维护间隔,减少维护费用。 5.精密空调采用电加热器 耗能低,精度高,稳定性好。绝缘电阻加热组件带有延展型铝翅片,表面温度低,可防止灰尘离子化及防止产生臭氧。 6.机房采用高效冷凝器 冷凝器外壳采用高级抗腐蚀材料,采用外置转子式轴流风机精心设计,对风管送风时,不会因为风管阻力而降低风量,可以因应环境的要求做单方向或360度角排风,不会因为加装风管,影响冷凝器的制冷量,噪音设计满足环保要求,风机调速器能根据不同温度实现无级调速,保证良好的运行状态和最佳节能效果。 7.精密空调采用模块化设计 1)选用直联后曲叶片全铝制EC离心风机,由于风机在精密空调里是不停机运转的,运转的时间是最长的,因此就全年来说,风机的耗电量对整台机组而言占了相当的比例。就冷冻水机组而言相对于一般AC电机,全年省电可达30-60%左右。 2)使用电子膨胀阀,与传统热力膨胀阀相比节能8-12%。控制系统通过电子膨胀阀对制冷循环的温度、压力进行精确控制,大大提高控制精度。在室外环境温度较低的时候,电子膨胀阀精确控制过热度,使系统能够稳定运行。摆脱了传统除湿方式,无需降低循环风量或者关闭部分蒸发盘管,使得除湿过程更精确、更可靠、更节能。 8.精密空调采用正面维护简单方便 空调机组100%正面维护,机组安装可以三面靠墙,维护空间大。机组前门,容易打开,不需专用工具。做到不停机维护。各种功能元器件按照功能集中布置,操作方便。所有暴露的电器电压均为24V安全电压(冷凝压力控制–冷媒回路)(冷凝压力控制–水回路)。

数据中心维护_精密空调CRAC

为什么需要精密空调? 现在,恒温恒湿环境控制要求已经远远超出了传统数据中心或计算机室的围,包括更大的一套应用,称为“技术室”。典型的技术室应用包括: ?医疗设备套件(MRI、CAT 扫描) ?洁净室 ?实验室 ?打印机/复印机/CAD 中心 ?服务器室 ?医疗设施(手术室、隔离室) ?电信(交换机室、发射区) 为什么需要精密空调? 在许多重要的工作息处理是不可或缺的一个环节。因此,贵公司的正常运转离不开恒温恒湿的技术室。 IT硬件产生不寻常的集中热负荷,同时,对温度或湿度的变化又非常敏感。温度和/或湿度的波动可能会产生一些问题,例如,处理时出现乱码,严重时甚至系统彻底停机。这会给公司带来大量的损失,具体数额取决于系统中断时间以及所损失数据和时间的价值。标准舒适型空调的设计并非为了处理技术室的热负荷集中和热负荷组成,也不是为了向这些应用提供所需的精确的温度和湿度设定点。精密空调系统的设计是为了进行精确的温度和湿度控制。精密空调系统具有高可靠性,保证系统终年连续运行,并且具有可维修性、组装灵活性和冗余性,可以保证技术室四季空调正常运行。 温度和湿度设计条件 保持温度和湿度设计条件对于技术室的平稳运行至关重要。设计条件应在72-75°F (22-24°C)以及 35-50% 的相对湿度 (R.H.)。与环境条件不合适可能造成损坏一样,温度的快速波动也可能会对硬件运行产生负面影响。这就是即使硬件未在处理数据也要使其保持运行状态的一个原因。相反,舒适型空调系统的设计只是为了在夏天 95°F

(35°C)的气温和48% R.H.的外界条件下,使室的温度和湿度分别保持80°F (27°C)和 50% R.H.的水平。相对而言,舒适型空调系统的设计只是为了在夏天95°F (35°C)的条件和48% R.H.的外界条件下,保持80°F (27°C)和50% R.H.。舒适空调没有专用的加湿及控制系统,简单的控制器无法保持温度所需的设定点的整定值(23±2°C),因此,可能会出现高温、高湿而导致环境温湿度场大围的波动。 环境不适合所造成的问题 如果技术室的环境运行不当,将对数据处理和存储工作产生负面影响。结果,可能使数据运行出错、宕机,甚至使系统故障频繁而彻底关机。 1、高温和低温 高温、低温或温度快速波动都有可能会破坏数据处理并关闭整个系统。温度波动可能会改变电子芯片和其他板卡元件的电子和物理特性,造成运行出错或故障。这些问题可能是暂时的,也可能会持续多天。即使是暂时的问题,也可能很难诊断和解决。 2、高湿度 高湿度可能会造成磁带物理变形、磁盘划伤、机架结露、纸粘连、MOS 电路击穿等故障发生。 3、低湿度 低湿度不仅产生静电,同时还加大了静电的释放。此类静电释放将会导致系统运行不稳定甚至数据出错。 欲了解更多APC相关容,请登录.apc./cn 技巧:精密空调系统工作原理及维护过程解析 精密空调的构成除了前面介绍的压缩机、冷凝器、膨胀阀和蒸发器外,还包括:风机、空气过滤器、加湿器、加热器、排水器等。因此我们在日常的机房管理工作中对空调的管理和维护,主要是针对以上部件去维护的。精密空调的构成除了前面介绍的压缩机、冷凝器、膨胀阀和蒸发器外,还包括:风机、空气过滤器、加湿器、加热器、排水器等。因此我们在日常的机房管理工作中对空调的管理和维护,主要是针对以上部件去维护的。 一、精密空调的结构及工作原理 精密空调主要由压缩机、冷凝器、膨胀阀和蒸发器组成。

数据中心机房运维外包服务内容

数据中心机房运维外包服 务内容 Modified by JEEP on December 26th, 2020.

数据中心机房运维外包服务 1.服务范围 2. ?终端:终端设备包括台式计算机、便携式计算机、高端工作站和打印机; ?网络系统:网络系统包括技术中心局域网、广域网、互联网的维护工作; ?应用系统:应用系统包括信息门户、各类应用系统等系统的维护工作。 ?数据中心:数据中心范围内设备包括服务器、交换机、UPS、机房供电、机房空调、机房环控、机房管理; ? 3.服务方式 ?热线服务:5 × 8小时(作息制度与KE客户同步)客服服务热线; ?现场服务:安排系统、网络、安全、桌面等各类工程师实施驻场式服务已达到服务及时响应及时解决,作息时间与技术中心同步; ?机房职守:数据中心根据客户需求实施机房职守,以保障核心设备及系统的稳定运行。 ? 4.服务内容 3.1网络系统维护 IP地址维护管理 VLAN划分 网络设备配置调整及网络优化 网络系统故障诊断 网络入侵监测 网络性能及资源使用情况检查

网络广播风暴监测 网络病毒监测 临时网络布线(大型综合布线需要另外签署协议) 因特网接入服务 网络拓扑图的维护 网络设备档案建设 网络运行日志 服务维护档案 网络运行状况报告 3.2机房运行维护 ?机房后备电源运行状况监测 ?机房电源运行状况监测 ?机房空调运行状况监测 ?机房环控系统运行监测 ?弱电线路巡检和楼层弱电间巡检 ?机房安全管理,专人机房值班(根据客户要求,可提供7*24 / 5*8小时值班) 3.3应用系统服务 3.3.1应用系统客户端维护 ?应用系统客户端升级(或升级包)安装服务 ?应用系统终端软件维护服务(一线支持处理常见故障) 3.3.2服务器系统维护 服务器系统维护提供以下服务: ?服务器系统故障处理及维护 ?服务器操作系统的安装、安全设置 ?服务器系统安全设置及维护 ?系统数据备份服务 ?服务有效性检查 ?资源使用情况检查 ?网络病毒防护(需要企业购买相关的软件) ?服务器运行日志 ?数据备份日志 ?系统安全日志

数据中心空调系统应用白皮书

数据中心空调系统应用白皮书

目录 一引言 (5) 1.1目的和范围 (5) 1.2编制依据 (5) 1.3编制原则 (6) 二术语 (6) 三数据中心分级 (8) 3.1概述 (9) 3.2 数据中心的分类和分级 (9) 四:数据中心的环境要求 (10) 4.1 数据中心的功能分区 (10) 4.2 数据中心的温、湿度环境要求 (11) 4.2.1 数据中心环境特点 (11) 4.2.2 国标对数据中心环境的规定和要求 (12) 4.3 数据中心的其它相关要求 (16) 五: 数据中心的机柜和空调设备布局 (18) 5.1 机柜散热 (19) 5.1.1数据中心机柜 (19) 5.1.2 机柜的布局 (21) 5.2 机房空调及其布置 (23) 5.2.1 机房空调概述 (23) 5.2.2 机房空调送回风方式 (25) 5.2.3 机房空调布局 (25) 六:数据中心空调方案设计 (26) 6.1 数据中心的制冷量需求确定 (26) 6.2 数据中心的气流组织 (29) 6.2.1 下送上回气流组织 (29) 6.2.2 上送下(侧)回气流组织 (33) 6.2.3 局部区域送回风方式 (36) 6.3 空调系统的冷却方式选择 (37) 6.4 空调设备的选择 (46) 七: 数据中心中高热密度解决方案 (48) 7.1 区域高热密度解决方案 (48) 7.2 局部热点解决方式 (50) 7.3高热密度封闭机柜 (52) 7.4其它高热密度制冷方式 (54) 八: 数据中心制冷系统发展趋势 (54) 8.1数据中心发展趋势: (54) 8.2 数据中心制冷系统发展趋势 (57) 九机房环境评估和优化 (58) 附件一:数据中心要求控制环境参数的原因 (62) 附件二:机房专用空调机组 (70)

数据中心(机房)制冷空调系统运维技术考核题目答案参考

数据中心(机房)制冷空调系统运维技术考核题目答案参考 1.A类数据机房温湿度范围?单点温湿度波动范围? A类机房温湿度要求:23±1℃,40--55% ;单点温度波动小于5℃/h,湿度波动小于5%/h 参考:GB50174《电子信息系统机房设计规范》 2.空调回风参数:温度25℃,相对湿度50%;求露点温度? 13.86℃参考:标准大气压湿空气焓湿图;此题关注会查空气状态点对应的露点温度和湿球温度 3.自然冷却模式、预冷模式、普通制冷模式的切换依据,对应的环境湿球温度值是多少? 湿球温度<10℃适合自然冷却模式,10--15℃之间适合预冷模式,>15℃适合普通制冷模式 参考:水冷自控系统供冷模式转换控制逻辑 4.机房空调送风距离多少米为宜?6-10m为宜 5.数据机房采用地板送风,风速范围多少m/s为宜? 1.5--3.0m/s(2-- 2.5 m/s最佳)参考:GB50174《电子信息系统机房设计规范》 6.数据机房新风正压要求数值? 机房与走廊4.9Pa;机房与室外9.8Pa 参考:GB50174《电子信息系统机房设计规范》 7.数据机房新风量:人均参考值?每平米参考值?按机房换气次数每小时几次为宜? 按工作人员每人40m3/h;每平米25--30 m3/h;机房换气次数1.1--2.7次/h(人员进出的机房取4次/h) 8.计算:900个标准机柜(13A)需要多大面积的机房合适?如选用艾默生冷水型机房空调P3150G至少需要多少台?按4-5台以上备份1台的标准,最多需要多少台?需要多大冷量的冷水机组提供冷源?需要多大风量的新风空调提供机房正压? 每个机柜加上冷热通道,平均面积取2.3--2.5㎡;2.3×900=2070㎡(可分成4个517.5㎡模块间,每个模块225台机柜) 每平米可用制冷量不能小于1.5KW+每平米维护结构热负荷0.1KW=每平米冷量需求1.6KW 总冷量需求:1.6×2070=3312KW 查艾默生冷水型空调样本:P3150G标准冷量为148.2KW;需留有20%的预留(使用系数取0.8) 艾默生P3150G冷水型空调单机净冷量:148.2×0.8=118.56KW ○标准需求台数:3312÷118.56≈28台;冗余配置(4+1):28÷4=7台(需配备机7台);含备机需28+7=35台○IT设备功耗转换成热量系数0.6--0.8(取0.75计算);13A机柜功耗2.86KW,转换为热量2.86÷0.75≈3.81KW 总热负荷:3.81×900=3429KW,除以P3150G空调单机净冷量118.56KW≈29台,按冗余配置(4+1),需配备机7台;含备机需29+7=36台 ○空调系统制冷量取IT负载的1.3倍;IT总负载:2.86×900=2574KW;空调系统总制冷量:2574×1.3=3346.2KW 除以P3150G空调单机净冷量118.56KW≈28台,按冗余配置(4+1),需配备机7台;含备机需28+7=35台 ●需要冷量为3429KW(约1000RT)的冷水机组(离心式)1台提供冷源 新风量每平米25--30 m3/h(取30 m3/h);总新风需求30×2070=62100 m3/h,建议规划4个模块间单独提供新风62100÷4=15525 m3/h,需要新风量15525 m3/h的组合空调4台 9.制冷设备能效比EER是如何计算的? EER即制冷设备的制冷性能系数,也称能效比,表示制冷设备的单位功率制冷量。EER值越高,表示制冷设备中蒸发吸收的热量较多,压缩机耗电较少。数学计算公式:EER=制冷量(KW)/制冷消耗功率(KW) 单位:W/W或KW/h/W 10.冷站(动力站)COP是如何计算的? 冷水机组实际制冷量和配套设备(压缩机-马达+冷冻水循环泵+冷却水循环泵+冷却塔风机-马达)实际输入功率之比 11.数据机房PUE是如何计算的?绿色节能机房PUE标准? PUE是评价数据中心能源效率的指标,是数据中心消耗的所有能源(电能)与IT负载使用的能源(电能)之比PUE=数据中心总设备能耗/IT设备能耗;基准是2,越接近1表明能效水平越好

数据中心空调制冷量的计算

办公场所空调制冷量怎么计算 办公室空调与面积要怎么匹配,会议室空调又怎么匹配,要怎么计算? 一冷量单位 〉千瓦(kw)—国际单位制,把制冷量统一到功率相同单位,是现在制冷界努力的方向 〉大卡(kcal/h)一习惯使用单位,与kw的换算关系为 1kcal/h=1.163w 1w=0.86kcal/h 1万大卡=11.6千瓦 〉冷吨(RT)----1吨0摄氏度的冰在24小时内变成0摄氏度水所吸收的热量。1冷吨=3.517kw 〉匹(HP)---又称马力、匹马力,即表示输入功率,也常表示制冷量。表示功率时 1HP=0.735KW 〉表示制冷量时,实际含义为消耗1HP功率所产生的制冷量 1HP - - -2.2KW 二制冷量简便计算方法 精密空调的负荷一般要根据工艺房间的实际余热余温以及状态的变化进行准确计算,但在条件不允许时也可计算,下面介绍两种简便的计算方法: 方法一:功率及面积法 Qt=Q1+Q2 Qt总制冷量(kw) Q1室内设备负荷(=设备功率X0.8) Q2环境热负荷(=0.18KW/m2X机房面积) 方法二:面积法(当只知道面积时) Qt=S x p Qt总制冷量(kw) S 机房面积(m2) P 冷量估算指标 三精密空调场所的冷负荷估算指标

电信交换机、移动基站(350-450W/m2) 金融机房(500-600W/m2) 数据中心(600-800W/m2) 计算机房、计费中心、控制中心、培训中心(350-450W/m2) 电子产品及仪表车间、精密加工车间(300-350W/m2) 保准检测室、校准中心(250-300W/m2) Ups 和电池室、动力机房(300-500W/m2) 医院和检测室、生活培养室、洁净室、实验室(200-250W/m2) 仓储室(博物馆、图书馆、档案馆、烟草、食品)(150-200W/m2) 四根据不同的情况确认制冷量 情况一(没有对机房设备等情况考察之下) 数据室估算:在一个小型的金融机房中,数据设备室通常的面积小于50平方,在数据设备、机房的建筑热量没有确定下来之前,可以按照金融机房通用的估计方法进行机房空调制冷量的预估:500w~600w/m2 ,部分高容量机房达到 800w/m2。例如数据室的面积为50 m2 ,则所需的制冷量约为:25kw。选用3台单机制冷量8.6kw的DataMate空调,外加一台冗余机组,共4台。当数据机房设备、维护结构确定后,对设备的发热量、维护面积的热量核算,调整空调的配置。电力室估算:电力室中主要的发热量来之UPS、电源等设备,其热容量较低,可以选择两台单机制冷量为8.6kw的空调冗余布置 在一个中型的金融机房中,数据设备室通常的面积小于200平方,在数据设备、机房的建筑热量没有确定下来之前,可以按照金融机房通用的估计方法进行机房空调制冷量的预估:500w~600w/m2 ,部分高容量机房达到800w/m2。例如数据室的面积为200m2 ,则所需的制冷量约为:100kw。选用2台单机制冷量58.4kw的CM+60空调,总制冷量为116.8kw,满足要求。为保证设备的工作可靠性,增加一台冗余机组,共3台。当机房设备、维护结构确定后,对设备的发热量、维护面积的热量核算,调整空调的配置。电力室估算:电力室中主要的发热量来之UPS、电源等设备,其热容量较低,可以选择2台单机制冷量为19.1kw的CM+20空调1+1冗余布置。 情况二

完整的IDC机房建设方案

数据中心建设方案 目录 综述 (2) IDC网络建设 (5) IDC网络建设 (6) IDC基础系统建设 (11) IDC应用服务系统建设 (24) IDC综合管理系统 (32) IDC计费系统 (36) IDC计费系统 (40) 技术服务 (43) IDC机房系统设计说明 (51) 一期实施内容建议 (58)

综述 经历了ISP/ICP飞速发展,.COM公司的风靡后,一种新的服务模式--互联网数据中心(Internet Data Center,缩写为IDC)正悄然兴起。它在国外吸引着像AT&T、AO- 、IBM、Exodus、UUNET等大公司的巨资投入;国内不但四大电信运营商中国电信、中国网通、中国联通、中国吉通开始做跑马圈地,一些专业服务商如清华万博、首都在线和世纪互联等,也参与了角逐。 IDC(Internet Data Center) - Internet数据中心,它是传统的数据中心与Internet的结合,它除了具有传统的数据中心所具有的特点外,如数据集中、主机运行可靠等,还应具有访问方式的变化、要做到7x24服务、反应速度快等。IDC是一个提供资源外包服务的基地,它应具有非常好的机房环境、安全保证、网络带宽、主机的数量和主机的性能、大的存储数据空间、软件环境以及优秀的服务性能。 IDC作为提供资源外包服务的基地,它可以为企业和各类网站提供专业化的服务器托管、空间租用、网络批发带宽甚至ASP、EC等业务。简单地理解,IDC是对入驻(Hosting)企业、商户或网站服务器群托管的场所;是各种模式电子商务赖以安全运作的基础设施,也是支持企业及其商业联盟(其分销商、供应商、客户等)实施价值链管理的平台。形象地说,IDC是个高品质机房,在其建设方面,对各个方面都有很高的要求。 IDC的总体结构如下图所示:

数据中心空调设计浅析

数据中心空调设计浅析 数据中心空调设计浅析 摘要随着网络时代的发展,服务器集成度的提高,数据中心机房的能耗急剧增加,这就要求数据中心的空调设计必须高效、节能、合理、经济,本文结合某工程实例浅谈下数据中心空调的特点和设计思路。 关键词:数据中心气流组织机房专用空调节能措施 数据中心是容纳计算机房及其支持区域的一幢建筑物或是建筑 物中的一部分。数据中心空调系统的主要任务是为数据处理设备提供合适的工作环境,保证数据通信设备运行的可靠性和有效性。本文结合工程实例浅析一下数据中心机房空调设计的特点和机房空调的节 能措施。 一、冷源及冷却方式 数据中心的空调冷源有以下几种基本形式:直接膨胀风冷式系统、直接膨胀水冷式系统、冷冻水式系统、自然冷却式系统等。 数据中心空调按冷却方式主要为三种形式:风冷式机组、水冷式机组以及双冷源机组。 二、空调设备选型 (1)空气温度要求 我国《电子信息系统机房设计规范》(GB50174―2008 )中规定:电子信息系统机房划分成 3级。对于A级与B级电子信息系统机房,其主机房设计温度为2 3±1°C,C级机房的温度控制范围是1 8―2 8°C 。 (2)空气湿度要求 我国《电子信息系统机房设计规范》(GB50174―2008 )中规定:电子信息系统机房划分成3级。对于A级与B级电子信息系统机房,其主机房设计湿度度为40―55%,C级机房的温度控制范围是 40―60%。 (3)空气过滤要求

在进入数据中心机房设备前,室外新风必须经过滤和预处理,去除尘粒和腐蚀性气体。空气中的尘粒将影响数据机房设备运行。 (4)新风要求 数据中心空调系统必须提供适量的室外新风。数据通信机房保持正压可防止污染物渗入室内。 三、气流组织合理布置 数据中心的气流组织形有下送上回、上送侧回、弥漫式送风方式。 1.下送上回 下送上回是大型数据中心机房常用的方式,空调机组送出的低温空气迅速冷却设备,利用热力环流能有效利用冷空气冷却率,如图1所示为地板下送风示意图: 图1地板下送风示意图 数据中心内计算机设备及机架采用“冷热通道”的安装方式。将机柜采用“背靠背,面对面”摆放。在热空气上方布置回风口到空调系统,进一步提高制冷效果。 2.上送侧回 上送侧回通常是采用全室空调送回风的方式,适用于中小型机房。空调机组送风出口处宜安装送风管道或送风帽。回风可通过室内直接回风。如图2所示为上送侧回示意图: 图2上送侧回示意图 四、节能措施 1、选择合理的空调冷源系统方式 在节能型数据中心空调冷源形式的选择过程中,除了要考虑冷源系统形式的节能性以外,还要综合考虑数据中心的规模、数据中心的功率密度、数据中心的投资规模、工作人员的维护能力、数据中心所在地的气候条件以及数据中心的基础条件等。 2、设计合理的室内空气温湿度 越低的送风温度意味着越低的空调系统能量利用效率。笔者认为冷通道设计温度为l5―22℃,热通道为25―32℃。 3、提高气流组织的效率 数据中心空调气流组织应尽量避免扩散和混合。在数据中心机房

数据中心机房管理制度

XX、有限公司数据中心机房管理制度 为安全、有效管理IDC机房,保障网络系统安全的应用、高效运行,特制定本规章制度,请遵照执行。 一、机房管理 1、计算机房要保持清洁、卫生,并由专人7*24负责管理和维护(包括温度、湿度、电力系统、网络设备等)。 2、严禁非机房工作人员进入机房,特殊情况需经中心值班负责人批准,并认真填写登记表后方可进入。进入机房人员应遵守机房管理制度,更换专用工作鞋;机房工作人员必须穿着工作服。非机房工作人员未经许可不得擅自上机操作和对运行设备及各种配置进行更改。 3、进入机房人员不得携带任何易燃、易爆、腐蚀性、强电磁、辐射性、流体物质等对设备正常运行构成威胁的物品。 4、建立机房登记制度,对本地局域网络、广域网的运行,建立档案。未发生故障或故障隐患时当班人员不可对中继、光纤、网线及各种网络、系统设备进行任何调试;若有故障应对所发生的故障、处理过程和结果等做好详细登记。 5、路由器、交换机和服务器以及通信设备是网络的关键设备,须放置计算机机房内,不得自行配置或更换,更不能挪作它用 6、机房工作人员应做好网络安全工作,服务器的各种帐号严格保密。并对各类操作密码定期更改,超级用户密码由系统管理员掌握。系统管理人员随时监控中心设备运行状况,发现异常情况应立即按照预案规程进行操作,并及时上报和详细记录。 7、机房工作人员应恪守保密制度,不得擅自泄露中心各种信息资料与数据。 8、做好操作系统的补丁修正工作。 9、网络、系统管理人员统一管理计算机及其相关设备,完整保存计算机及其相关设备的驱动程序、保修卡及重要随机文件。 10、计算机及其相关设备的报废需经过管理部门或专职人员鉴定,确认不符合使用要求后方可申请报废。 11、不定期对机房内设置的消防器材、监控设备进行检查,以保证其有效性。

绿色数据中心机房空调方案冷冻水下送风

第一部分:工程概况及建设原则与目标 一、工程概况 1、机房长、宽、高;净空高度、有无地板、地板高度;机房朝向、密封情况。 2、每个机房的设备类型、设备数量、设备功耗。 3、原有空调情况、送回风方式(改造项目)。 4、机房出现问题描述(改造项目)。 5、冷冻水空调系统状况描述:冷冻水供水温度:7℃,回水温度;12℃压力;100Kpa;管路:双路供水或单路供水等。 二、数据中心机房空调设计依据与标准 1、设计规范与参考依据 根据国家和国际的数据中心机房与空调的标准与规范: ●GB50174-2008《电子计算机机房设计规范》 ●GB/T2887–2000《电子计算机场地通用规范》 ●ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers, Inc.) TC9.9 ●TIA942标准(Telecommunications Infrastructure Standard for Data Centers) ●其他数据中心和暖通空调设计规范和文件 2、机房设计标准 数据中心机房和电力机房内有严格的温、湿度、噪音等要求,机房按国标GB2887-89《计算机场地安全要求》的规定: 1)、温度、湿度标准: 2)、噪音标准:

主机房区的噪声声压级小于68分贝 3)、正压密封要求 主机房内要维持正压,与室外压差大于9.8帕,机房要求密封运行,减少门窗等区域的冷风渗透。 4)、洁净度要求 在表态条件下,主机房内大于0.5微米的尘埃不大于18000粒/升。 5)送风速度 送风速度不小于3米/秒。 6)新风需求 满足工作人员工作所需的新风要求量,按照30~40m3/h·人计算。 根据机房实际可实施的情况,在过渡季节,引入室外较低温度的冷风,减少机房内空调负荷,减少机房空调能耗。 三、数据中心空调建设原则与目标 1)、标准化。数据中心机房规划设计方案,基于国际标准和国内有关标准,包括各种机房设计标准,机房空调相关规范以及计算机局域网、广域网标准,从而为建设高标准、高性能机房奠定基础。 2)、先进性与实用性相结合。机房空调系统设计立足于高起点,参考国际先进的机房空调建设经验以及业界同类机房的建设经验,适应当前数据中心机房的实际情况,构建合理并适当超前的技术体系架构。 3)、可靠性。数据中心机房空调系统应具有高可靠性,以保证数据中心主设备的稳定运行;机房空调制冷量按照机房内设备功耗量以及规划布局等因素设计计算,并考虑合适的冗余,保证为用户提供连续不间断的365×24小时空调运行服务。 4)、可扩充性和工程可分期实施。在机房空调系统设计中充分考虑用户后期的扩容,以及不同功能区间的划分,进行合理的冗余设计,预留合适的安装位置;实现根据区域扩容情况逐步增加机房空调,提高初次投资的利用率。 5)、智能与群控管理。机房空调系统采用智能化设计,可以实现对机房内多台机组进行集群控制,根据机房负荷变化,控制机房空调运行,实现空调能效管理。提供远程监控通信接口,实现远距离监控,远程监控与当地控制相同。 6)、绿色环保、节能、减排。数据中心机房空调设计充分考虑当前机房节能技术和节能方案,满足各种电子设备和工作人员对温度、湿度、洁净度、电磁场强度、噪音干扰、安全保安、防漏、电源质量、振动、防雷和接地等的要求,考虑环保、减排的要求,

相关文档
最新文档