数据中心常见冷却方式介绍(3):冷冻水型精密空调机组

数据中心常见冷却方式介绍(3):冷冻水型精密空调机组
数据中心常见冷却方式介绍(3):冷冻水型精密空调机组

数据中心常见冷却方式介绍(3):冷冻水型精密空调系统数据中心机房内部温湿度环境的控制要依靠室内空调末端得以实现,机房空调具有高效率、高显热比、高可靠性和灵活性的特点,能满足数据中心机房日益增加的服务器散热、湿度恒定控制、空气过滤及其他方面的要求。

随着不同地域PUE的严苛要求以及高密度服务器的广泛应用,数据中心新型的冷却方式被越来越开发及使用。下面分别介绍几种数据中心传统与新型的冷却方式。

1. 冷冻水型精密空调系统组成

冷冻水型精密空调机组结构简单,组成如下图所示。机组主要由框架、冷冻水盘管、室内EC风机、电磁两通调节阀(电动球阀)、控制系统、进出风温湿度传感器、冷冻水管路等组成。

图1 冷冻水型精密空调机组结构图

15℃低温冷冻水经过精密空调冷冻水盘管,将机房30℃回风冷却为为18℃冷风为机房IT设备降温;15℃低温冷冻水经机房热空气加热成为21℃高温冷冻水。一般设置为:出风温度控制精密空调两通阀开度,回风温度控制EC风机转速。

2. 冷冻水系统原理图

冷冻水型精密空调机组实现制冷,需要外部提供低温冷冻水(目前大型数据中心普遍供水温度为15℃左右)。冷冻水型精密空调系统一般由冷冻水型精密空调、冷水机组、冷却塔、冷冻水泵、冷却水泵、管路及附件组成。冷水机组或板式换热器为精密空调提供15℃低温冷冻水。

图2 大型集中式冷冻水精密空调系统原理图

3.产品特点及应用

(1)冷冻水型精密空调利用大型冷水机组或板式换热器做为集中冷源,制冷系统能效较高;冷冻水型精密空调无室外机,其冷冻水系统的冷却塔集中放置,节省安装空间;冷冻水型精密空调的冷冻水输送采用水泵作为输送动力,可远距离输送冷冻水至各个机房空调。

(2)冷冻水型精密空调机组具有大风量、小焓差的特点,显热比达95%以上,主要承担数据中心机房的显热负荷。机房内的潜热负荷由恒湿机来处理。显冷量140kW以上冷冻水型精密空调机组采用高效EC风机(如EBM航空级复合材料叶片),能效比可达20以上,相比风冷型直接蒸发式空调机组节能效果明显。

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

数据中心技术规范-冷冻水型列间空调

大庆云数据中心项目冷冻水型列间空调技术规范书

1 应用范围 本选型技术要求提出了冷冻水型列间空调的选型原则、技术要求,可作为工程招标的依据。 2 引用标准 GB/T50174-2008《电子信息系统机房设计规范》 GB/T2887-2000《电子计算机场地通用规范》 GB 50019-2012《采暖通风与空气调节设计规范》 3 技术要求 3.1 精密空调机组的技术指标 本次空调机组选型范围为冷冻水型列间空调,主要包括: 本次选型空调机组主要技术指标要求如下表: 表一: 表二:

注:制冷量是在回风干球温度35℃,相对湿度23%,冷冻水供回水温度12-18℃的工况下测定的。 4.2 精密空调机组的电气性能 4.2.1 精密空调机组的的电气性能应符合IEC标准 4.2.2 精密空调机组的电源规格应该为200~240V、1Ph、50/60Hz 4.2.3 输入电压允许波动范围:额定电压±10% 4.2.4 频率:额定频率±2Hz 4.3 精密空调机组的适应环境 4.3.1 工作环境温度:-20℃~+55℃ 4.3.2 工作环境湿度:≤ 95% RH 4.4精密空调机组的温度、湿度控制性能 4.4.1 精密空调应能按要求自动调节室内温、湿度,具有制冷、除湿等功能。 4.4.2 温度调节范围:+15℃~ +35℃ 4.4.3 温度调节精度:±1℃,温度变化率< 5℃/小时 4.4.4 温、湿度波动超限应能发出报警信号 4.5 精密空调机组的机组性能 4.5.1精密空调应由冷冻水盘管、EC风机、直流电源模块、水盘、冷凝水泵、水流量调节阀、控制盒、手操器和空气过滤器等主要部件组成。 4.5.2 冷冻水盘管应为铜管翅片式换热器,翅片应采用亲水铝箔,以提高换热性能,利于排水和提高防腐性能。 4.5.3空调机组应采用不少于6个高效、节能、无级调速EC风机送风,应根据附近机柜的温度自动调节送风量和制冷量;每个风机的状态均可以监控,一旦出现故障可以准确定位故障风机。 4.5.4每个风机模块均可以热插拔,支持在线维护,维护时不影响整机的可用性。

机房空调制冷量计算方法

精心整理 机房空调制冷量计算方法 精密空调的负荷一般要根据工艺房间的实际余热余温以及状态的变化进行准确计算,但在条件不允许时也可计算,下面介绍两种简便的计算方法: 制冷量简便计算方法: 方法一:功率及面积法 Qt Q1 Q2 Qt=Sxp Qt S P ? ? ? ? ? ? ?Ups ? ? UPS 1-2.KCal=KVA×860 1-3.BUT/小时=KVA(UPS容量)×860×3.96×(1-UPS效率) =KVA(UPS容量)×3400(1-UPS效率) 例:10KVAUPS一台整机效率85%其散热量计算如下: 10KVA×3400×(1-0.85)=5100BTU/小时 1英热单位/时(Btu/h)=0.293071瓦(W) IDC机房空调选项计算公式 Q=W×0.8×(0.7---0.95)+{(80---200)×S}/1000.Q为制冷量,单位KW;

W为设备功耗,单位KW;按用户需求暂按110KW; 0.8为功率因数; 0.7-0.95为发热系数,即有多少电能转化为热能;取0.7 80-200是每平方米的环境发热量,单位是W; S为机房面积,单位是m2。 根据不同情况确定制冷量 情况一(没有对机房设备等情况考察之下) 数据室估算:在一个小型的金融机房中,数据设备室通常的面积小于50平方,在数据设备、机房的建筑热量没有确定下来之前,可以按照金融机房通用的估计方法进行机房空调制冷量的预估: 500w~ 例如 ~ 例如的 共3 2台 1 ①设备负荷(计算机及机柜热负荷); ②机房照明负荷; ③建筑维护结构负荷; ④补充的新风负荷; ⑤人员的散热负荷等。 ⑥其他 2:热负荷分析: (1)计算机设备热负荷:Q1=860xPxη1η2η3Kcal/h

数据中心应用风冷型系统和冷冻水型系统之比较与分析

数据中心应用风冷型系统和冷冻水型系统之比较与分析 数据中心应用风冷型系统和冷冻水型系统之比较与分析 文/中国计算机用户协会机房设备应用分会副秘书长、北京国信天元机房环境评测技术中心常务副主任李勃 前言:针对目前国内用户在对中大型数据中心项目的规划暖通系统时,经常为采用风冷系统还是水冷系统而犹豫不决的现状,本文特别以5000平米机房面积为模型,从技术安全、系统可靠、投资合理、运行节约、易于维护等方面的要求出发,通过对现行的两种机房专用系统进行综合的分析与比较,从而得出科学结论并供广大用户参考。 一、本课题研究范围 本研究的范围是5000平米(地板面积)机房中所采用的机房专用空调系统部分。总IT设备负荷按为4500千瓦规划。 二、具体分析方法 考虑到该问题的复杂性,针对本项目的负荷规模,综合分析比较当前常用的两种机房专用空调系统即:风冷型机房专用空调系统和冷冻水型机房专用空调系统。我们从以下十个方面分析比较两种系统:1、可靠性;2、漏水隐患;3、能效比;4、可扩容性;5、分期建设与灵活性;6、对建筑的外部条件要求;7、投资;8、维护管理; 9、系统的适应性;10、对设计的要求。 2.1风冷冷却方式的综合分析 典型风冷冷却系统机房专用空调系统图如下:

该系统由空调室外机组和空调室内机组两部分组成。对典型风冷型机房专用空调系统的十个方面分析如下: 2.1.1 可靠性:风冷冷却方式的主要组成就是风冷室内机、风冷室外冷凝器,其路由为独立的冷媒管路连接,从物理连接的角度看(不考虑主备机切换、能效管理等逻辑控制与连接),系统完全独立,任意机组路由的故障不会影响其它机组,因此从系统的角度看,没有任何影响系统运行的单点故障。 2.1.2漏水隐患:风冷冷却方式因仅有加湿水管部分进入机房,相对漏水隐患较小。降低该系统漏水隐患的主要措施有:(1)如果排水管路泄漏,机组在探测到漏水后,自动关闭进水管路,排除进一步漏水的可能;(2)如果进水管路泄漏,监控系统将立即告警。即使不考虑设计有自动关闭进水阀的装置,在值班人员抵达现场关闭进水阀之前,因单个机房进水量小(每小时供水量小于100升),不会对机房造成大的危害。如果设计有合适高度的拦水坝和排水孔,漏水造成对机房的隐患将彻底排除。 2.1.3 能效比:风冷冷却方式单机系统的能效比较高,从冷却的角度看,主要能耗产生于压缩机、室内风机、风冷室外冷凝器。此方式能效比稳定,目前业界常用的风冷方式能效比约为2.7- 3.1。如考虑利用自然冷源,可进一步提高能效比,例如制冷剂泵循环模式,冬季时可停止压缩机运行,通过制冷剂泵实现制冷循环,能效比将高达6.5以上,按此计算,北京地区全年能效比(在正在修订的《GB19413计算机和数据处理机房用单元式空气调节机》中规定:全年能效比(AEER)annual energy efficiency ratio:机房空调进行全年制冷时从室内除去的热量总和与消耗的电量总和之比)将高达3.5以上。

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

数据中心空调水系统供冷规模设计 叶明哲

数据中心空调水系统供冷规模设计 原创2016-04-12叶明哲 摘要:数据中心水冷系统采用何种形式和规模建设,直接关系到数据中心建设投资的成本和运行的安全;本文主要对水系统供冷的规模和冗余情况进行阐述和探讨,并提出在大型数据中心基地可以采用区域供冷方式,设立两到四个独立的区域供冷中心,从而降低数据中心空调系统总投资和提升数据中心空调系统安全性。 供冷规模独立供冷区域供冷关键词 1.数据中心空调水系统规模 在大型数据中心,多幢数据机楼组成庞大的数据中心群机楼,制冷规模可以采用单幢数据机楼供冷或区域供冷。如中国电信在建的云计算内蒙古园区,就由42幢楼组成,每幢楼约18000M2,需要多个供冷中心。选择制冷中心的数量和制冷规模是必须要考虑的一个问题,这直接关系到数据中心的建设成本和空调系统安全性。 2.独立供冷(单幢机楼供冷) 就是每一幢机楼设置一个单独的制冷机房,该制冷机房只对自己这幢楼进行供冷。单幢机楼供冷系统比较简单,这有利于系统的维护和检修,当水系统发生故障时,只对该楼设备造成影响,不会影响到别的机楼,故影响面较小,是目前数据中心普遍采用的方式,下图1是独立供冷示意图: 图1 数据中心独立供冷示意图 但对于多幢机楼组成的数据中心,需要每个机楼均搞一个制冷机房,如云计算内蒙园区,按这种方式需要建42个独立的制冷中心。这种方式导致制冷机房较多,相对占地面积较大,由于制冷机组多,操作维护工作量较大;而且各个供冷中心内部,为了安全,也需要考虑冗余和备份,导致投资过大。 2.1.独立供冷的系统冗余

如果是A级机房(T4),水管管路必须是两个独立的系统,每个系统可以独立承担单幢楼数据中心所有的热负荷,运行时两个系统必须同时在线运行,单个系统故障不会对数据中心产生任何影响,这就是系统冗余。每个系统都独立承担100%的热负荷,这就是1+1系统冗余,如图2,但是这样投资很大。 图2 系统1+1冗余示意图 2.2.组件冗余 如果不满足系统冗余,仅仅是部分组件故障有冗余,就叫组件冗余。B级机房(T3),水系统管路也需要设计为两个系统,但是主机和末端可以公用,运行可以采用主备用方式进行,支持有计划的系统检修;组件冗余就是系统中常用的组件考虑冗余,如水泵采用N+1方式,冷机采用N+1方式,冷却塔采用N+1方式,机房空调采用N+X方式,这些就是组件冗余。 2.3.系统冗余和机组冗余投资比较 采用高标准,势必会带来投资的增大。采用系统冗余的投资很大,从纯正的字面理解,双系统可能是单系统200%的投资,但如果合理设计系统冗余,达到A级标准(T4)的同时,也是可以大幅降低初期的投资费用。 对于B、C级机房,机组不需要系统冗余,只需要考虑机组的冗余,一般采用的N+X 冗余,X=1~N,从实际运行来看,当N值较少时(N<4),2台机组同时出现故障的几率非常低,x取1基本已经可以应对突发故障情况。对于部分重要机房,不严格按照A级机房设计的,而又需要提高可靠性或者负载扩容的,可以先按照N+1配置,但预留扩容一台机组的位置。 3.区域集中制冷 单幢机楼供冷有一个缺点,就是1幢楼有一个制冷中心,如果数据中心够大,那建设的供冷中心就会足够多,如云计算内蒙云园区,按照单幢楼供冷的特点,需要42个供冷中心,而且各个数据中心内部需要冷机、水泵、冷塔、管路的冗余和备份,这些备份和冗余在各个

数据中心空调制冷量的计算

办公场所空调制冷量怎么计算 办公室空调与面积要怎么匹配,会议室空调又怎么匹配,要怎么计算? 一冷量单位 〉千瓦(kw)—国际单位制,把制冷量统一到功率相同单位,是现在制冷界努力的方向 〉大卡(kcal/h)一习惯使用单位,与kw的换算关系为 1kcal/h=1.163w 1w=0.86kcal/h 1万大卡=11.6千瓦 〉冷吨(RT)----1吨0摄氏度的冰在24小时内变成0摄氏度水所吸收的热量。1冷吨=3.517kw 〉匹(HP)---又称马力、匹马力,即表示输入功率,也常表示制冷量。表示功率时 1HP=0.735KW 〉表示制冷量时,实际含义为消耗1HP功率所产生的制冷量 1HP - - -2.2KW 二制冷量简便计算方法 精密空调的负荷一般要根据工艺房间的实际余热余温以及状态的变化进行准确计算,但在条件不允许时也可计算,下面介绍两种简便的计算方法: 方法一:功率及面积法 Qt=Q1+Q2 Qt总制冷量(kw) Q1室内设备负荷(=设备功率X0.8) Q2环境热负荷(=0.18KW/m2X机房面积) 方法二:面积法(当只知道面积时) Qt=S x p Qt总制冷量(kw) S 机房面积(m2) P 冷量估算指标 三精密空调场所的冷负荷估算指标

电信交换机、移动基站(350-450W/m2) 金融机房(500-600W/m2) 数据中心(600-800W/m2) 计算机房、计费中心、控制中心、培训中心(350-450W/m2) 电子产品及仪表车间、精密加工车间(300-350W/m2) 保准检测室、校准中心(250-300W/m2) Ups 和电池室、动力机房(300-500W/m2) 医院和检测室、生活培养室、洁净室、实验室(200-250W/m2) 仓储室(博物馆、图书馆、档案馆、烟草、食品)(150-200W/m2) 四根据不同的情况确认制冷量 情况一(没有对机房设备等情况考察之下) 数据室估算:在一个小型的金融机房中,数据设备室通常的面积小于50平方,在数据设备、机房的建筑热量没有确定下来之前,可以按照金融机房通用的估计方法进行机房空调制冷量的预估:500w~600w/m2 ,部分高容量机房达到 800w/m2。例如数据室的面积为50 m2 ,则所需的制冷量约为:25kw。选用3台单机制冷量8.6kw的DataMate空调,外加一台冗余机组,共4台。当数据机房设备、维护结构确定后,对设备的发热量、维护面积的热量核算,调整空调的配置。电力室估算:电力室中主要的发热量来之UPS、电源等设备,其热容量较低,可以选择两台单机制冷量为8.6kw的空调冗余布置 在一个中型的金融机房中,数据设备室通常的面积小于200平方,在数据设备、机房的建筑热量没有确定下来之前,可以按照金融机房通用的估计方法进行机房空调制冷量的预估:500w~600w/m2 ,部分高容量机房达到800w/m2。例如数据室的面积为200m2 ,则所需的制冷量约为:100kw。选用2台单机制冷量58.4kw的CM+60空调,总制冷量为116.8kw,满足要求。为保证设备的工作可靠性,增加一台冗余机组,共3台。当机房设备、维护结构确定后,对设备的发热量、维护面积的热量核算,调整空调的配置。电力室估算:电力室中主要的发热量来之UPS、电源等设备,其热容量较低,可以选择2台单机制冷量为19.1kw的CM+20空调1+1冗余布置。 情况二

数据中心冷冻水空调故障隐患解决

数据中心冷冻水空调故障隐患解决随着数据中心发展,数据中心的功率密度越来越高。现在新建数据中心的机柜功率一般可达到6KVA甚至数十千瓦。数据中心单位面积的冷负荷是一般商用建筑的15倍以上,因此为数据中心选择一个可靠、节能的制冷方式显得尤为重要。由于建筑围护结构得热在数据中心的总冷负荷中所占的份额不到2%,因此可以以为数据中心的冷负荷在一年四季中是基本稳定不变的。 国内数据中心以前比较常见的空调方式主要为风冷精密空调系统,在能源日趋紧张、环境日益恶化的今天,在可能的情况下,应尽量使用冷冻水方式空调系统是专家的建议。当然由于冷冻水精密空调系统复杂、管线多、运行难度加大,因此进步冷冻水空调的安全性显得尤为重要。 空调冷冻水循环系统是包括来自空调设备的冷冻水回水经集水器、除污器、循环水泵,进进冷水机组蒸发器内、吸收了制冷剂蒸发的冷量,使其温度降低为冷冻水,进进分水器后再送进空调设备的表冷器或冷却盘管内,与被处理的空气进行热交换后,再回到冷水机组内进行循环再冷却。 在空气调节中,经常通过水作为载冷剂来实现热量的传递,因此水系统是中心空调系统的一个重要的组成部分。传统观念以为,数据中心中设置了大量的用电设备,水进进机房会带来很大的危险。但是随着节能降耗观念的深进人心,美国从2000年起,冷冻水系统因其高效节能的上风开始大量的应用于数据中心制冷。因此,如何做好防

止漏水及保证系统的可靠性就显得尤其重要。世纪互联根据多年的设计、工程和运行治理经验,提出下列措施: 1.水系统使用无缝钢管和优质阀门。 使用优质的无缝钢管和阀门,降低水管漏水、阀门故障漏水等几率,从而进步系统的安全性和可靠性。 2.高质量的钢管焊接 采用厚壁优质无缝钢管,公道的焊接工艺进步焊接质量。钢管焊接完成后,采用3倍于运行压力进行管道打压实验。 3.水管采用环路系统 水管采用环路系统,即使某处发生故障,整个系统不受影响,仍然可以正常运行,进步系统的安全性。 4.消除水系统单点故障 在每个设备的前、后端设置截止阀;在每个阀门的前、后端,也设置截止阀。当系统中某个设备或某个阀门发生故障时,可以封闭相应阀门,在系统冗余范围内及时维修,不影响这个系统的正常运行。 5.地面防水、漏水检测 精密空调下方地面、管道间地面,应做防水并设置挡水围堰和漏水监测探头,出现漏水及时报警,进步系统的安全性。 6.采用封闭的管道间 采用封闭的管道间,水管主要布置在管道间中,即使发生漏水,也可以保证水不进进IT设备区域,进步系统的安全性。 7.保温及防冻

新一代数据中心解决方案的4大优势

H3C新一代数据中心解决方案的4大优势 推荐 打印 收藏 标准化 新一代数据中心之标准化 传统数据中心的异构网络 数据中心经过多年的发展和变革,已经成为企业IT系统的心脏,然而,随着企业信息化发展的不断深入和信息量的爆炸式增长,数据中心正面临着前所未有的挑战。其中,传统数据中心在不断的建设和升级过程中积累下来的繁杂、异构的网络,阻碍了数据中心向高效、敏捷的方向发展。 从数据中心的网络结构看,存在相对独立的三张网:数据网(Data)、存储网(SAN)和高性能计算网(HPC),而目前的网络现状: 数据中心的前端访问接口通常采用以太网进行互联而成,构成了一张高速运转的数据网络数据中心后端的存储更多的是采用NAS、FC SAN等 服务器的并行计算则大多采用Infiniband和以太网 不同的服务器之间存在操作系统和上层软件异构、接口与数据格式不统一

以上问题导致数据中心运行时,协议转换开销大、速率不匹配、性能瓶颈明显、开发与部署周期长、无法满足业务快速灵活部署和实际应用的需求。 标准化之统一交换架构 为了便于未来的业务整合和服务提供、简化管理、降低建设成本和运营维护成本,为了解决传统数据中心异构网络带来的种种问题,数据中心的建设应尽量避免异构系统的存在,用一个统一的标准来规划完整的数据中心网络体系。 在业务网络,以太网随着技术的变革一直在向前不断的发展,以满足不断变化的行业和市场的需求。自1983年以太网开始大规模普及开始,到1995年的以太网网卡被大多数PC所采用,再到快速以太网(100 Mbps ),千兆以太网( 1000 Mbps )以及今天的万兆以太网,和即将推出的40 Gbps和100 Gbps以太网标准。其经历了从终端到局域网、从局域网到广域网、从广域网到城域网的变革,可以说以太网正凭借其强大的生命力得到了空前的发展和壮大。 在存储领域,自IP存储自诞生以来快速发展,万兆存储更将存储发展带入新纪元。 在超级计算和高性能计算领域,08年6月发布的世界TOP500超级计算机排名显示,285个站点采用以太网连接,占据57%的份额。 随着CEE(Convergence Enhanced Ethernet 融合增强型以太网)对现有以太网标准的改进,以太网解决了数据中心应用面临的所有技术问题。融合增强型以太网已经成为构建统一交换架构数据中心的最佳选择。

绿色数据中心机房空调方案冷冻水下送风

第一部分:工程概况及建设原则与目标 一、工程概况 1、机房长、宽、高;净空高度、有无地板、地板高度;机房朝向、密封情况。 2、每个机房的设备类型、设备数量、设备功耗。 3、原有空调情况、送回风方式(改造项目)。 4、机房出现问题描述(改造项目)。 5、冷冻水空调系统状况描述:冷冻水供水温度:7℃,回水温度;12℃压力;100Kpa;管路:双路供水或单路供水等。 二、数据中心机房空调设计依据与标准 1、设计规范与参考依据 根据国家和国际的数据中心机房与空调的标准与规范: ●GB50174-2008《电子计算机机房设计规范》 ●GB/T2887–2000《电子计算机场地通用规范》 ●ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers, Inc.) TC9.9 ●TIA942标准(Telecommunications Infrastructure Standard for Data Centers) ●其他数据中心和暖通空调设计规范和文件 2、机房设计标准 数据中心机房和电力机房内有严格的温、湿度、噪音等要求,机房按国标GB2887-89《计算机场地安全要求》的规定: 1)、温度、湿度标准: 2)、噪音标准:

主机房区的噪声声压级小于68分贝 3)、正压密封要求 主机房内要维持正压,与室外压差大于9.8帕,机房要求密封运行,减少门窗等区域的冷风渗透。 4)、洁净度要求 在表态条件下,主机房内大于0.5微米的尘埃不大于18000粒/升。 5)送风速度 送风速度不小于3米/秒。 6)新风需求 满足工作人员工作所需的新风要求量,按照30~40m3/h·人计算。 根据机房实际可实施的情况,在过渡季节,引入室外较低温度的冷风,减少机房内空调负荷,减少机房空调能耗。 三、数据中心空调建设原则与目标 1)、标准化。数据中心机房规划设计方案,基于国际标准和国内有关标准,包括各种机房设计标准,机房空调相关规范以及计算机局域网、广域网标准,从而为建设高标准、高性能机房奠定基础。 2)、先进性与实用性相结合。机房空调系统设计立足于高起点,参考国际先进的机房空调建设经验以及业界同类机房的建设经验,适应当前数据中心机房的实际情况,构建合理并适当超前的技术体系架构。 3)、可靠性。数据中心机房空调系统应具有高可靠性,以保证数据中心主设备的稳定运行;机房空调制冷量按照机房内设备功耗量以及规划布局等因素设计计算,并考虑合适的冗余,保证为用户提供连续不间断的365×24小时空调运行服务。 4)、可扩充性和工程可分期实施。在机房空调系统设计中充分考虑用户后期的扩容,以及不同功能区间的划分,进行合理的冗余设计,预留合适的安装位置;实现根据区域扩容情况逐步增加机房空调,提高初次投资的利用率。 5)、智能与群控管理。机房空调系统采用智能化设计,可以实现对机房内多台机组进行集群控制,根据机房负荷变化,控制机房空调运行,实现空调能效管理。提供远程监控通信接口,实现远距离监控,远程监控与当地控制相同。 6)、绿色环保、节能、减排。数据中心机房空调设计充分考虑当前机房节能技术和节能方案,满足各种电子设备和工作人员对温度、湿度、洁净度、电磁场强度、噪音干扰、安全保安、防漏、电源质量、振动、防雷和接地等的要求,考虑环保、减排的要求,

机房空调制冷量计算方法

机房空调制冷量计算方法 pQt总制冷量(kw)S机房面积(m)P冷量估算指标精密空调场所冷负荷估算指标?电信交换机、移动基站(350-450W/m) ?金融机房(500-600W/m) ?数据中心(600-800W/m) ?计算机房、计费中心、控制中心、培训中心(350-450W/m) ?电子产品及仪表车间、精密加工车间(300-350W/m) ?保准检测室、校准中心 (250-300W/m) ? Ups 和电池室、动力机房(300-500W/m) ?医院和检测室、生活培养室、洁净室、实验室(200-250W/m) ?仓储室(博物馆、图书馆、档案馆、烟草、食品)(150-200W/ni) UPS机房空调选项计算1-h BTU/小时二KCal3、961-2、KCal= KVA8601-3. BUT/小时二 KVA (UPS 容量)8603、96(1-UPS 效率)二 KVA (UPS 容量)3400(l-UPS 效率)例:10KVA UPS -台整机效率 85% 其散热量计算如下: 10KVA3400(l-0、85)=5100 BTU/小时1英热单位/时(Btu/h)二0、瓦(W) IDC机房空调选项计算公式Q二W0、 8(0、7-一0、95)+ { (80—-200)S)/1000、Q 为制冷量,单位 KW; W为设备功耗,单位KW;按用户需求暂按110KW;0、8为功率因数;0、7-0. 95为发热系数,即有多少电能转化为热能;取 0、780-200是每平方米的环境发热量,单位是W;S为机房面积,单位是m。根据不同情况确定制冷量情况一(没有对机房设备等情况考察之下)数据室估算:在一个小型的金融机房中,数据设备室通常的面积小于50平方,在数据设备、机房的建筑热量没有确定下来之前,可以按照金

新一代数据中心建设的总体规划设计样本

新一代数据中心建设的总体规划设计 中国IDC圈4月25日报道: 下面我们有请中国系统工程学会信息系统工程专业委员会副主任委员高复先先生发表演讲。她的演讲题目是新一代数据中心建设的总体规划设计。有请高教授! 各位下午好! 我讲的题目是"新一代数据中心建设的总体规划设计".和上面几位先生讲的不太一样, 在数据中心的物理平台支撑之下, 作为企业政府也好, 特别是电子政务, 省市一级的信息内容、信息资源怎么来组织。能够说在信息资源整合和开发方面, 利用已有的数据平台的东西。 关于数据中心建设的基本认识, 本世纪是信息资源整合的世纪。这是国际上IT界的公认的一个观点。20世纪是计算机表明、普及数据处理应用、数据海量堆积的时代的, 21世纪是整合无序数据, 深度开发利用信息资源的时代。中国油田企业从20世纪50年代, 开始二维地震数据处理到80年代的三维地震数据处理, 现在进行着企业资源计划软件推行, 还有数字油田建设等等, 还有信息化建设取得长足进步, 还有问题也出现了, 应用系统分散开发, 数据标准混乱, 矛盾、冗余的数据继续堆积, 信息孤岛丛生, 管理层和决策层应用开发滞后。这个现象在其它的行业和电子政务方面普遍存在的。要从数据层面, 管理层面要做数据中心, 是一体化解决问题的一个很重要的方法。

那么不论企业信息化, 还有电子政务数据中心建设的误区呢, 我们发现调查研究以后, 主要在数据中心建设定位, 投资方向有问题。基本上停留在物理建设层面, 只注重解决数据集中存储、备份与安全等问题, 不注重解决数据标准化建设和信息资源整合策略问题, 同时由于缺乏统筹规划和需求分析, 没有发挥业主方的主导作用, 将数据中心建设项目分保给系统集成商和软件商, 最终演变成了设备和软件产品的采购、安装、部分数据迁移和调查应用, 数据中心不能支持核心业务运作与辅助领导决策, 数据中心不能支持核心业务运作与辅助领导决策, 没有发挥数据中心建设的应用。 我们要总体的来看这个问题。第一是基础设施建设, 提供远程的委托式的数据中心服务。还有在这个之上, 要建立这个行业这个企业这个政府部门, 这个数据标准化, 而我们的研究对这个标准化不是单一的, 是五项的大致系。 还有网上是数据存储, 集中存储一些主机的数据仓库, 包括空间地理的数据。还有数字数据, 管理的源数据。这之上才是业务开发, 对企业来讲, 有一套。对于公共卫生、社会保障, 诚信等等等等, 要建设下去。还有能够搞领导决策, 数据决策。那么这是数据中心的高层应用。那么这个应用服务要落到实处。那么要协调的完成这些复杂艰巨的建设任务, 不但有物理设施, 技术资源, 要搞统一筹划, 要做好统一规划、设计。这是非常自然的现象。

基于绿色数据中心节能建设分析

基于绿色数据中心节能建设分析 发表时间:2016-11-09T15:21:54.870Z 来源:《基层建设》2016年16期作者:刘宝新 [导读] 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 北京国信网通科技有限公司北京市 100085 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 关键词:绿色;数据中心;节能建设 1绿色数据中心节能指标分析 目前,衡量数据中心是否绿色的主要量化指标是采用绿色网格组织(GreenGrid)制定的能效比指标,又称为PUE(PowerUsageEfficiency)。 PUE=[TotalFacilityοfPower(设备总能耗)ITEquipmentPower(IT设备总能耗)×100%]=1+[空调能耗IT设备能耗]+[通风能耗IT设备能耗]+[配电能耗IT设备能耗]+[UPS能耗IT设备能耗]+[照明能耗IT设备能耗]+…… PUE反映了数据中心总能耗和计算、存储、网络等IT设备能耗的比值。PUE值大于1,其数值越小,说明能源利用率越高。目前,国外先进的数据中心的PUE值能达到1.5~1.8,而我国的数据中心的PUE值为2~3,说明仅有33%~50%的电能用在了IT设备运行上,50%~66%的电能消耗在空调、配电等设备上。 2建设绿色数据中心应遵循的原则 2.1突出绿色环保,科学拟制方案:绿色数据中心建设要结合数据存储使用需求,根据信息采集、传输、处理和分发的具体使用需求,以及IT设备的具体特点,围绕绿色环保对数据中心的供电方式、UPS电源容量、制冷方式、照明、风路、水路、电路、管网、主要IT设备的选型等方面进行综合考虑,进行统一规划设计,并逐项细化,寻求最高效益。 2.2突出节能高效,合理配置资源:首先要突出保障重点。根据实际和存放数据的重要程度,可将数据中心划分为高密区、中密区和低密区,重点对高密区的电源、通风、制冷设备采取多种技术措施,制订多种配置应用方案。其次要便于系统扩容。根据信息化建设的发展特点,基础设施需求会呈现非线性爆炸性增长趋势,所以在数据中心的规划建设中,要充分考虑选址合理、系统容量易于扩展。 2.3突出稳定可靠,提高重组能力:不能稳定可靠运行的数据中心是无用的数据中心,因此设计数据中心一定要在提高其重组再生能力方面下功夫。硬件设施方面,在电源引接上,要有两个以上不同方向的路由线路;在UPS配置上,要采取多组互联方式,保证每个PDU单元、每个机柜的接电排、每个设备的电源输入端子上,都有两路以上独立UPS电源引接;在风机、制冷及配线上要进行N+1备份,对重要的保障区域要实现1+1备份。软件配置方面,运用云计算及虚拟化技术,将故障的网络、计算、存储等设备的应用随时自动平滑迁移到其他网络、计算、存储设备上,保证业务的不间断运行,提高系统重组能力。 2.4突出安全智能,提高管控水平:在外围监控上,要设立安全隔离区,建立由电子围栏、红外探测、夜视监控、自动报警、门禁系统等组织的综合外围监控系统,以提高安保等级。在区域设置上,区分维护区、设备区、控制区,将数据中心规划为不同的安全防护等级,采取多种身份认证措施和不同的防护手段,对核心控制区要设置以生物特征识别为基础的身份认证系统,严格人员进出管理;对核心设备区要设置气体消防,保证设备安全。在防电磁泄露上,对电源线、信号线等要采用屏蔽电缆,避雷装置和电缆屏蔽层应接地,对核心设备区要加装电磁屏蔽设施,保证设备安全可靠;在智能管理上,对数据中心的周边安全、内部温(湿)度等环境参数,对风、机、电、水相关配套系统运行指标,对计算、存储、网络设备负载运行状态,要能做到实时感知、直观呈现、智能处理,提高运维管理效率。 3建设绿色数据中心应关注的问题 3.1减少IT设备能耗:根据能耗结构和能耗路径图,IT设备每减少能耗1W,数据中心将整体减少能耗2.84W。在保证效率的前提下,降低IT设备的能耗是一个最有效的方法。从实现技术上看,主要有两种方法:一是采用高效低耗的核心部件。受加工工艺和技术水平的影响,不同供应商提供的CPU等核心处理器在能耗上存在20%~40%的差异,要尽量采用节能产品。二是采用工作效率较高的新型服务器,如用刀片式服务器取代机架式或塔式服务器,设备可节能20%~30%。 3.2采用虚拟化技术:采用虚拟化技术对现有服务器、存储设备进行整合,在不增加硬件投入成本的情况下,将所有的服务器、存储设备虚拟成一个公用的资源池,统一灵活调配,提供服务,在提高性能的同时减少物理服务器、存储设备的数量,减少电力、制冷和场地成本。在服务器方面,传统服务器平均CPU利用率一般为7%~15%,经虚拟化整合后,CPU利用率能提高到60%~70%,还能实现虚拟服务自动迁移、数据存储整体读写速率、系统鲁棒性和高可用性的提高。 4.3提高制冷效率:机房空调对数据中心的安全稳定运行起保障作用,空调耗电量在数据中心的总耗能中约占50%,已经超过了IT设备本身的耗电成本。提高制冷效率,主要从两个方面入手:①使用精密空调替代普通空调。同功率的普通空调和精密空调产生同样的制冷量,前者耗电量是后者的两倍。②规划好机房内冷热气流通道,避免交叉。传统的机房空调直接对机柜吹风或采用下送风方式,送(回)风路径不合理,应采用冷热气流通道隔离技术,科学设计机房各要素布局,缩短冷气流的运行距离,实现精确定点的冷能量投送,以减小能量消耗,提高空调制冷效率。 3.4减少供电模式转换:交流直流转换过程中的热损耗是数据中心隐性耗电的“大户”,能耗高达20%~30%。在传统供电方式下,为UPS 充电,要将外部交流电源转换为直流为电池充电;使用UPS电源时,要将UPS电池直流转换为交流,为IT设备电源模块供电;IT设备工作时,由于CPU等耗电设备是直流供电,IT设备电源模块要将外部交流转换为直流。在条件允许的情况下,尽量使用直流供电的服务器,通过直流电源供电方式,减少交流和直流电源逆变的次数,以提高电能应用效率。 3.5加强运维管理:通过精确智能的运维管理工具,实时监控和分析各种IT设备负载情况,及时发现、处理、维修、停用异常的IT设

数据中心技术规范-冷冻水型房间级精密空调

大庆云数据中心项目 冷冻水型精密空调 技术规范书

1. 概述 1.1. 定义 1.本规范书为机房专用空调设备采购项目招标文件(冷冻水型机房专用空调)的技术要求和供货要求。 2.对本技术规范书要求提供具体数据的技术指标,投标人中标后提供具体技术数据和指标,并要给出数据的来源。 3.本技术规范书应视为保证甲方在冷冻水型机房专用空调所需的最低要求。其余由投标人报价时自行充分考虑。 4.招标人在任何时候都保留和拥有对本文件的解释权。招标人有权在签订合同前,根据需要修改和补充本技术规范书,修改补充后的最终技术规范书将作为合同的附件。 5.投标人在参与本项目中,对于招标人披露和提供的所有信息应作为商业秘密对待并予以保护,未经招标人授权不得将任何信息泄漏给第三方,否则招标人有权追究投标人的责任。 1.2. 必须满足的技术标准/规范 投标人的设备应符合以下技术标准: (1)《计算机和数据处理机房用单元式空气调节机》(GB/T19413-2010)。 (2)《通信机房用恒温恒湿空调系统》(YDT 2061-2009) (3)《通风与空调工程施工及验收规范》(GB50243-2002); (4)《建筑设计防火规范》(GB50016-2014); (5)《采暖通风与空气调节设计规范》(GB50019-2012); (6)《电信专用房屋设计规范》(YD/T5003-2005); (7)《公共建筑节能设计标准》(GB50189-2005); (8)《全国民用建筑工程设计技术措施》(暖通空调?动力)(2009年); (9)《通信局(站)电源系统总技术要求》(YD/T 1051-2010); (10)《通信局(站)电源、空调及环境集中监控管理系统》(YD/T 1363 -2005); 1.3. 名词和术语 1.能效比(EER) energy efficiency ratio 在额定工况和规定条件下,空调器进行制冷运行时,制冷量与有效输人功率之比,其值用W/W表示。 2.制冷量(制冷能力) total cooling capacity

大数据服务平台功能简介

大数据服务平台简介 1.1 建设目标 大数据服务平台以“整合资源、共享数据、提供服务”为指导思想,构建满足学校各部门信息化建设需求,进而更好为广大师生、各级管理人员、院领导等角色提供集中、统一的综合信息服务。因此, 要建设大数据服务平台 主要包括综合查询,教学、科研、人事、学生、图书、消费、资产、财务等数据统计分析和数据采集终端(含数据录入及数据导入)。通过此平台为学校的校情展示提供所需的基础数据,为学校的决策支持积累所需的分析数据,为广大师生、各级管理人员、校领导的综合信息服务提供所需的开发数据,为学校的应用系统建设提供所需的公共数据。 1.2建设效益 协助领导决策、提供智能分析手段通过建设大数据服务平台:为校领导提供独特、集中的综合查询数据,使校领导能够根据自身需要随时查询广大师生的个人情况,有助于校领导及时处理广大师生的各种诉求。 为校领导提供及时、准确的辅助决策支持信息,使校领导能够全面掌握多方面的信息,有助于校领导提高决策的科学性和高效性(以往各部门向校领导提供的信息往往只从部门角度考虑,而校领导无法及时获取多方面的信息,无法及时做出决策)。为校领导提供丰富、全面的校情展示数据,使校领导能够实时掌握教学、科研、人事、学生、图书、消费、资产、财务等情况,有助于校领导制定学校未来发展战略。 为校领导提供教育部《普通高等学校基本办学条件指标》检测报表,包括具有高级职务教师占专任教师的比例、生均占地面积、生均宿舍面积、百名学生配教学用计算机台数、百名学生配多媒体教室和语音实验室座位数、新增教学科研仪器设备所占比例、生均年进书量。对提高教学质量和高等学校信息化程度等具有积极的指导作用。1.3 建设内容基于中心数据库,将学校长期以来积累的大量管理数据以一种多维的形式进行重新组织,多层次、多维度的整合、挖掘和分析,从各个层面、各个角度充分展示学校的办学理念、教学质量、科研水平、师资队伍、学生风貌、后勤保障、办学条件等,为各级管理人员、校领导科学决策提供强有力的技术保障与数据支持。 1、信息查询 包括教职工信息查询和学生信息查询。

弱电机房精密空调制冷量精确计算方法解析

弱电机房散热使用机房专用的精密空调,给机房提供一个恒温恒湿的环境,精密空调分为水冷和风冷,空调制冷量是根据机房冷负荷来确定的。举例,一个面积为85平米,UPS设计容量为120KVA的机房,其空调制冷量计算如下: 1 机房制冷量简便计算方法 一、功率及面积法 Qt=Q1+Q2 Qt:总制冷量(kw) Q1:室内设备负荷(=设备功率 x Q2:环境热负荷(=~m2x 机房面积)

因为所有设备均通过UPS供电,所以可根据UPS的功率来确定整个机房的设备负荷。设计UPS的容量为120KVA,则室内设备冷负荷为:Q1 = 120***=(需要扣除设计时考虑的20%余量) 环境冷负荷为:Q2=平方米×85平方米= 则:Qt=Q1+Q2=+= 注:电池发热量和UPS的发热量忽略不计。 这样,使用一个制冷量70KW左右的空调就足够了。为了安全起见,可以使用1+1备份。

2 二、面积法(当只知道面积时) Qt=S x p Qt:总制冷量(kw) S:机房面积(m2) P:冷量估算指标 三、精密空调场所冷负荷估算指标 1、电信交换机、移动基站(350-450w/m2) 2、金融机房(500-600w/m2)

3、数据中心(600-800w/m2) 4、计算机房、计费中心、控制中心、培训中心(350-450w/m2) 5、电子产品及仪表车间、精密加工车间(300-350w/m2) 6、保准检测室、校准中心(250-300w/m2) 7、UPS和电池室、动力机房(300-500w/m2) 8、医院和检测室、生活培养室、洁净室、实验室(200-250w/m2) 9、仓储室、博物馆、图书馆、档案馆、烟草、食品(150-200w/m2) 3 四、机房制冷量精确计算方法

相关文档
最新文档