绿色数据中心机房空调方案冷冻水下送风

合集下载

数据中心技术规范-冷冻水型列间空调

数据中心技术规范-冷冻水型列间空调

大庆云数据中心项目冷冻水型列间空调技术规范书1 应用范围本选型技术要求提出了冷冻水型列间空调的选型原则、技术要求,可作为工程招标的依据。

2 引用标准GB/T50174-2008《电子信息系统机房设计规范》GB/T2887-2000《电子计算机场地通用规范》GB 50019-2012《采暖通风与空气调节设计规范》3 技术要求3.1 精密空调机组的技术指标本次空调机组选型范围为冷冻水型列间空调,主要包括:本次选型空调机组主要技术指标要求如下表:表一:表二:注:制冷量是在回风干球温度35℃,相对湿度23%,冷冻水供回水温度12-18℃的工况下测定的。

4.2 精密空调机组的电气性能4.2.1 精密空调机组的的电气性能应符合IEC标准4.2.2 精密空调机组的电源规格应该为200~240V、1Ph、50/60Hz4.2.3 输入电压允许波动范围:额定电压±10%4.2.4 频率:额定频率±2Hz4.3 精密空调机组的适应环境4.3.1 工作环境温度:-20℃~+55℃4.3.2 工作环境湿度:≤ 95% RH4.4精密空调机组的温度、湿度控制性能4.4.1 精密空调应能按要求自动调节室内温、湿度,具有制冷、除湿等功能。

4.4.2 温度调节范围:+15℃~ +35℃4.4.3 温度调节精度:±1℃,温度变化率< 5℃/小时4.4.4 温、湿度波动超限应能发出报警信号4.5 精密空调机组的机组性能4.5.1精密空调应由冷冻水盘管、EC风机、直流电源模块、水盘、冷凝水泵、水流量调节阀、控制盒、手操器和空气过滤器等主要部件组成。

4.5.2 冷冻水盘管应为铜管翅片式换热器,翅片应采用亲水铝箔,以提高换热性能,利于排水和提高防腐性能。

4.5.3空调机组应采用不少于6个高效、节能、无级调速EC风机送风,应根据附近机柜的温度自动调节送风量和制冷量;每个风机的状态均可以监控,一旦出现故障可以准确定位故障风机。

绿色数据中心机房空调方案冷冻水下送风

绿色数据中心机房空调方案冷冻水下送风

第一部分:工程概况及建设原则与目标一、工程概况1、机房长、宽、高;净空高度、有无地板、地板高度;机房朝向、密封情况。

2、每个机房的设备类型、设备数量、设备功耗。

3、原有空调情况、送回风方式(改造项目)。

4、机房出现问题描述(改造项目)。

5、冷冻水空调系统状况描述:冷冻水供水温度:7℃,回水温度;12℃压力;100Kpa;管路:双路供水或单路供水等。

二、数据中心机房空调设计依据与标准1、设计规范与参考依据根据国家和国际的数据中心机房与空调的标准与规范:●GB50174-2008《电子计算机机房设计规范》●GB/T2887–2000《电子计算机场地通用规范》●ASHRAE (American Society of Heating, Refrigerating and Air-ConditioningEngineers, Inc.) TC9.9●TIA942标准(Telecommunications Infrastructure Standard for Data Centers)●其他数据中心和暖通空调设计规范和文件2、机房设计标准数据中心机房和电力机房内有严格的温、湿度、噪音等要求,机房按国标GB2887-89《计算机场地安全要求》的规定:1)、温度、湿度标准:2)、噪音标准:主机房区的噪声声压级小于68分贝3)、正压密封要求主机房内要维持正压,与室外压差大于9.8帕,机房要求密封运行,减少门窗等区域的冷风渗透。

4)、洁净度要求在表态条件下,主机房内大于0.5微米的尘埃不大于18000粒/升。

5)送风速度送风速度不小于3米/秒。

6)新风需求满足工作人员工作所需的新风要求量,按照30~40m3/h·人计算。

根据机房实际可实施的情况,在过渡季节,引入室外较低温度的冷风,减少机房内空调负荷,减少机房空调能耗。

三、数据中心空调建设原则与目标1)、标准化。

数据中心机房规划设计方案,基于国际标准和国内有关标准,包括各种机房设计标准,机房空调相关规范以及计算机局域网、广域网标准,从而为建设高标准、高性能机房奠定基础。

中心机房建设项目机房精密空调新风系统设计方案

中心机房建设项目机房精密空调新风系统设计方案

中心机房建设项目机房精密空调新风系统设计方案一、空调系统规划数据中心机房区域内分三种空调形式:恒温恒湿型精密空调机组、基站式柜式空调、吸顶式舒适型空调。

中心机房采用精密空调,即恒温恒湿机组形式;UPS配电机房和网络机房采用精密空调;辅类机房采用吸顶式舒适型空调。

恒温恒湿精密空调机组是机房工程中的重要配套设备,其安装使用条件与机房的工程有密切的关系,精密空调送风模式采用下送风恒温恒湿精密空调。

根据《电子计算机场地通用规范》和机房设计的标准等要求,我们建议机房空调采用机房精密空调来控制机房的温度是湿度,这样会使机房更智能化、人性化;以下是精密空调和一般空调的性能以及造价上面的比较:机房精密空调与普通舒适性空调的比较机房精密空调机组普通舒适性空调1 机房精密空调对机房的温度、湿度、洁净度和气流速度,都进行相应的控制。

使机房的温度精密控制在±1 o C,湿度精度在±5%,有利于电气设备的普通空调只控制温度,对其他三个特征度没有太多的控制,为民用设备。

良好稳定运行。

2 机房的特点是全年设备都在运行,设备散热量较大,需要空调机组全年制冷运行,机房空调配置可调速冷凝风扇,冬季可正常制冷运转。

普通空调在冬季的制冷运行,要解决稳定冷凝压力和其它相关的问题,容易低压报警跳空气开关,无法正常运转。

3 机房要求其运行点为:冬季,20±2o C,夏季,23±2o C,机房空调把运行点作为设计点,因而机组始终处于最佳运行点,满足机房的环境要求,使设备稳定运行。

普通空调设计点温度一般为27o C,所以机组的实际供冷能力一般比样本标明的额定值低15-25%;此外,运行点偏离设计点时,机组的部分机件性能由于偏离了最佳运行点,从而影响了机组整体的匹配状态,不利于机组性能的充分发挥和高效率运行。

4 从整体机房散热效果来看,机房空调采用机组底部下送风,通过静电地板下方空间形成普通柜式空调采用上送风,机组正面下方回风,或是四面出风空调静压箱,然后从蜂窝孔地板处均匀送出冷风,带走机器设备发热,变成热空气向上,热空气最后在机组顶部上方吸入被空调机组处理,符合散热气流组织。

TDRA2522机房制冷解决方案(地板下送风)

TDRA2522机房制冷解决方案(地板下送风)

机房制冷解决方案(地板下送风解决方案)施耐德电气信息技术(中国)有限公司2011年1月10日机房制冷解决方案一、项目描述机房面积约350平方米,机房配置的UPS为160KV A,机房的最大IT负载约125KW。

二、热负荷估算计算原则:热源发热量1KW IT设备1KW 显热负荷照明1m²地板面积产生40W显热负荷新风1m²地板面积产生30W显热负荷1m²地板面积产生20W潜热负荷人体1名工作人员产生70W显热负荷1名工作人员产生60W潜热负荷配置原则:a)自动化程度高、能够实现精确控制,温度精度控制在±1℃。

b)采用模块化、结构化设计,容易扩展,且各模块都具有独立的制冷除湿功能。

c)故障率低。

d)显热比≥94%。

e)单位时间的风循环次数大于20次f)过滤效率>90%g)工作环境噪声≤68dB。

h)维修方便,全正面维护。

i)输入电源:380V±15%,50Hz±5%。

j)获得ISO 9001认证以及IS014000认证。

k)寿命≥10年,平均无故障时间≥5万小时。

三、配置方案根据机房热负荷及面积,前期IT负载约125KW。

机房的面积约350平方米。

1、机房热负荷计算机房的热负荷组成由UPS负载(IT设备的热负荷);UPS及PDU的热负荷;照明;地板及新风负荷;人体热负荷等负荷组成。

机房暂以5个工作人员计算。

各类热负荷组成及计算方法见下表;数据中心地板面积* = 350 M2IT 设备负荷*= 125 kW操作人员数量*= 5内部热负荷热负荷类型来源1. IT 设备热负荷显热100% OF IT kW 100% X 125 = 125 kW2. UPS/PDU 热负荷显热7% OF IT kW 7% X 125 = 8.75 kW3. 照明系统热负荷显热27 W/M2地板面积0.027 X 350 = 9.45 kW4. 人体热负荷显热70 W / 人0.07 X 5 = 0.35 kW5. 人体热负荷潜热60 W / 人0.06 X 5 = 0.3 kW外部热负荷热符合类型来源新鲜空气通过渗透进入:墙体, 窗, 地板, 天花板显热30 W/M2地板面积0.03 X 350 = 10.5 kW 潜热20 W/M2地板面积0.02 X 350 = 7 kW 总制冷量161 kW显冷量154 kW显热比(SHR)0.95机房的总热负荷为161KW,其中显热量为154KW,潜热量为7KW,机房热负荷的显热比为0.95。

下一代绿色数据中心建设方案

下一代绿色数据中心建设方案

下一代绿色数据中心建设方案目录1 机房基础设施方案 (4)1.1 总述 (4)1.1.1 设计目标 (4)1.1.2 需求分析 (4)1.1.3 建设主要内容 (4)1.2 设计相关标准和规范 (5)1.3 机房整体规划 (6)1.3.1 机房功能分区及面积划分 (6)1.3.2 机房平面布局 (6)1.3.3 系统特点 (7)1.4 设备配置清单 (8)1.5 空调新风系统 (9)1.5.1 选型分析 (9)1.5.2 空调设备配置 (10)1.5.3 空调系统特点与优势 (11)1.5.4 空调设备性能参数 (12)1.5.5 通风系统 (13)1.6 动力配电系统 (14)1.6.1 配电结构 (14)1.6.2 UPS配置 (15)1.6.3 用电统计 (16)1.7 机柜微环境系统 (17)1.7.1 机柜 (17)1.7.2 机柜排配电 (18)1.7.3 机柜排监控 (19)1.8 装饰装修系统 (20)1.8.1 空间及布线 (20)1.8.2 装饰装修 (20)1.8.3 照明 (21)1.9 防雷接地系统 (21)1.9.1 防雷 (21)1.9.2 接地 (21)1.10 监控管理系统 (22)1.10.1 门禁 (22)1.10.2 视频监控 (22)1.10.3 集中监控 (22)1.11 消防报警系统 (23)1.11.1 消防报警 (23)1.11.2 气体灭火 (24)1.12 建筑场地条件需求 (24)1.12.1 建筑条件 (24)1.12.2 电力条件 (25)1.12.3 空调室外机场地 (25)1机房基础设施方案1.1总述1.1.1设计目标计算机机房工程是一种涉及到空调技术、配电技术、网络通信技术、净化、消防、建筑、装潢、安防等多种专业的综合性产业。

本着从满足机房建设工程项目的实际需要出发,本方案立足于建设高标准化机房的宗旨,严格遵循“投资合理、规划统一、立足现在、适度超前”的设计方向,为用户提供一个完整全面优化的解决方案。

绿色数据中心的空调选择-图文

绿色数据中心的空调选择-图文

绿色数据中心的空调选择-图文第四章绿色高等级数据中心的空调选择和节能方案概述4.1大型高等级(T3以上)数据中心如何选择空调方案4.1.1最新节能应用概述1.数据中心能耗现状云计算时代的数据中心,一方面要求数据中心保持高可用性特点,能高效地、安全地运营;另一方面,用户会尽可能要求数据中心降低能源消耗和运行成本;而且数据中心必须具备灵活的扩展能力,以应对多变的业务需求及未来的不确定因素。

欧洲尤其注重提高数据中心能源利用效率,优化IDC功耗利用效率(PUE),热电冷联供、冰柜供冷、机柜供冷、自然冷却、热回收技术、磁悬浮变频离心等技术的较早采用,使欧洲数据中心成为最有可能最先达到优化PUE=L.2的理想境界的数据中心。

如图4-1所示。

图4-1欧洲数据中心能效利用效率下面我们就欧洲的一些冷源方面的节能技术应用做一个简单的介绍。

2.具有自然冷却的冷水机组数据中心通常都需要常年不间断供冷,常规的制冷系统,室外温度即使是低于或远低于其循环冷冻水温的情况下冷水机组运行也需要照常运行。

当室外温度较低时,我们完全可以利用冷空气直接冷却循环冷冻水,从而在冬季减少或完全不需要开启压缩机制冷即可为空调室内机提供冷量,这种方法即为自然冷却方法(Freecooling),有此功能的机组叫自然冷却机组。

它与常规冷水机组最大的区别在于它帯有独特的凤冷自然冷却换热器,其运行优先利用天然环境的低温空气冷却循环冷冻水,可以实现无压缩机运行制冷,雅若节省压缩机的电耗。

这种机组在夏季与常规空调一样,仍旧采用压缩机制冷。

但是在过渡季和冬季,却能较少地消耗电能达到常规空调同样的制冷效果。

在过渡季,当环境温度达到比冷冻水回水温度低两度或以上时,开启Freecooling自然冷却,利用冷空气的冷量预冷冷冻水,无需压缩机功耗;自然冷却不足部分,再由常规压缩制冷接力,从而减少了系统功耗,见图4-2。

在冬季,完全靠FREECOOLING自然冷却冷却冷冻水,不需压缩机开启,只需少量风扇电耗,能效比高达20以上,见图4-3。

数据中心风液融合制冷技术

数据中心风液融合制冷技术

数据中心风液融合制冷技术说到数据中心,大伙儿脑袋里第一反应是什么?肯定是“冷啊!”没错,这些地方温度一高,机器就得“中暑”,谁也不愿意让自家的服务器热得冒烟,所以冷却系统就成了“顶梁柱”!你看,传统的空调制冷方法一直都在用,效果倒是不错,就是费电。

你别看那空调呼呼地吹,背后可都是一大笔电费账单在默默流失。

而今天咱们说的这个“风液融合制冷技术”,哎,真心挺牛的,既省电又环保,堪称数据中心的“冷却革命”。

啥是风液融合制冷技术?先别急,咱一块儿慢慢聊。

咱知道,风冷系统是靠风扇把热空气排出去,然后通过冷凝器和蒸发器把热量带走。

而液冷嘛,就是通过液体把热量带走,大家听着就觉得比风冷“高级”对吧?要不然,怎么那么多高大上的设备用的都是液冷系统呢?它的核心,就是通过水或者其他冷却液来快速吸收设备释放的热量,然后再将热量带到外界释放。

这两者各有优缺点,但“风液融合”这个技术,聪明地将二者的优点结合了起来,打破了传统冷却方式的“天花板”,让数据中心的“冷”变得更高效、更节能。

咱先从“风”说起,大家也都知道,风是免费的,吹吹就来了,不需要花一分钱。

风冷系统正是利用了这一点,通过高速旋转的风扇带走设备周围的热量,算是个“低成本”的好办法。

但是呢,这风也有它的局限性,尤其是在大规模的数据中心里,风扇的作用就显得有点“力不从心”。

再加上,风冷还会带动空气中的灰尘,搞得设备表面也脏兮兮的,清洁工作一大堆,烦不烦?然后说液冷,这玩意儿要是弄得好,那真是秒杀风冷!水的热传导效率比空气强多了,冷却效果直接上一个档次。

不过,液冷也不是十全十美的。

你想想,液体要是漏了,哎呀,那后果真是不堪设想。

而且液冷系统的安装成本比风冷贵得多,要求更高,维护也得小心翼翼,稍微不留神,可能就会出问题。

所以,要把风冷和液冷这两者合起来,想法一出,真是妙不可言。

风液融合技术就是在这种背景下应运而生的。

简单来说,它就是把风冷和液冷的优势巧妙地结合在一起。

数据中心(IDC机房)冷冻水温度对空调系统节能的影响

数据中心(IDC机房)冷冻水温度对空调系统节能的影响

数据中心(IDC机房)冷冻水温度对系统节能的影响随着数据中心的建筑规模和单机柜功耗的增加,大型数据中心越来越多,因空调系统在数据中心能耗占比大,越来越引起关注。

从2018年开始,北京、上海、深圳等一线城市,陆续出台“PUE新政”。

2018年9月,北京提出全市范围内禁止新建和扩建互联网数据服务、信息处理和存储支持服务数据中心(PUE值在1.4以下的云计算数据中心除外)。

上海也出台类似政策,存量改造数据中心PUE不得高于1.4,新建数据中心PUE限制在1.3以下。

2019年4月,深圳提出PUE1.4以上的数据中心不再享有支持,PUE低于1.25的数据中心,可享受新增能源消费量40%以上的支持。

提高空调系统全年整体效率,有效降低能耗是数据中心空调专业设计建设重点考虑和研究的课题。

近几年空调系统冷却方式发展变化较快,在保证机房安全正常工作的前提下,提高冷冻水供回水温度、优化气流组织、室外自然冷源合理利用等冷却方式已被广泛接受,并在工程中实践。

本文就技术成熟、使用效果好的部分冷却方式从基本理论、使用方法、效率、使用注意事项等方而进行总结叙述,提出相关冷却技术的观点和建议,供数据中心空调专业的设计、建设、运维入员技术交流与学习参考。

目前广泛采用的集中式空调系统的冷冻水系统,其供回水温度作为关键指标,对整个空调系统的能耗、投资均有着至关重要的影响。

冷冻水供回水温度直接影响空调冷源侧及空调末端侧的换热温差,进而影响冷源侧、末端侧水与空气的换热效率;对于利用自然冷源的系统,也影呐空调冷源侧自然冷源的利用时间。

1、冷冻水温度对空调系统的影响1.1提高冷冻水供回水温度的有利影响如下:(1)较高的冷冻水水温能够提高冷水机组的制冷效率。

按照主流电动压缩式冷水机组厂家的经验参数,冷冻水温度每提升1°C ,冷机能效可提高2%~3% 。

(2)提高冷冻水温度,可提高空调显热比;提高到一定数值后,可实现干工况运行,减少除湿功耗。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第一部分:工程概况及建设原则与目标一、工程概况1、机房长、宽、高;净空高度、有无地板、地板高度;机房朝向、密封情况。

2、每个机房的设备类型、设备数量、设备功耗。

3、原有空调情况、送回风方式(改造项目)。

4、机房出现问题描述(改造项目)。

5、冷冻水空调系统状况描述:冷冻水供水温度:7℃,回水温度;12℃压力;100Kpa;管路:双路供水或单路供水等。

二、数据中心机房空调设计依据与标准1、设计规范与参考依据根据国家和国际的数据中心机房与空调的标准与规范:●GB50174-2008《电子计算机机房设计规范》●GB/T2887–2000《电子计算机场地通用规范》●ASHRAE (American Society of Heating, Refrigerating and Air-ConditioningEngineers, Inc.) TC9.9●TIA942标准(Telecommunications Infrastructure Standard for Data Centers)●其他数据中心和暖通空调设计规范和文件2、机房设计标准数据中心机房和电力机房内有严格的温、湿度、噪音等要求,机房按国标GB2887-89《计算机场地安全要求》的规定:1)、温度、湿度标准:2)、噪音标准:主机房区的噪声声压级小于68分贝3)、正压密封要求主机房内要维持正压,与室外压差大于9.8帕,机房要求密封运行,减少门窗等区域的冷风渗透。

4)、洁净度要求在表态条件下,主机房内大于0.5微米的尘埃不大于18000粒/升。

5)送风速度送风速度不小于3米/秒。

6)新风需求满足工作人员工作所需的新风要求量,按照30~40m3/h·人计算。

根据机房实际可实施的情况,在过渡季节,引入室外较低温度的冷风,减少机房内空调负荷,减少机房空调能耗。

三、数据中心空调建设原则与目标1)、标准化。

数据中心机房规划设计方案,基于国际标准和国内有关标准,包括各种机房设计标准,机房空调相关规范以及计算机局域网、广域网标准,从而为建设高标准、高性能机房奠定基础。

2)、先进性与实用性相结合。

机房空调系统设计立足于高起点,参考国际先进的机房空调建设经验以及业界同类机房的建设经验,适应当前数据中心机房的实际情况,构建合理并适当超前的技术体系架构。

3)、可靠性。

数据中心机房空调系统应具有高可靠性,以保证数据中心主设备的稳定运行;机房空调制冷量按照机房内设备功耗量以及规划布局等因素设计计算,并考虑合适的冗余,保证为用户提供连续不间断的365×24小时空调运行服务。

4)、可扩充性和工程可分期实施。

在机房空调系统设计中充分考虑用户后期的扩容,以及不同功能区间的划分,进行合理的冗余设计,预留合适的安装位置;实现根据区域扩容情况逐步增加机房空调,提高初次投资的利用率。

5)、智能与群控管理。

机房空调系统采用智能化设计,可以实现对机房内多台机组进行集群控制,根据机房负荷变化,控制机房空调运行,实现空调能效管理。

提供远程监控通信接口,实现远距离监控,远程监控与当地控制相同。

6)、绿色环保、节能、减排。

数据中心机房空调设计充分考虑当前机房节能技术和节能方案,满足各种电子设备和工作人员对温度、湿度、洁净度、电磁场强度、噪音干扰、安全保安、防漏、电源质量、振动、防雷和接地等的要求,考虑环保、减排的要求,建设安全可靠、舒适实用、绿色节能、高效的数据中心机房。

7)、可维护性。

机房空调系统采用模块化结构设计,100%全正面维护,各部件均为标准系列化部件,并保证有充足的备品备件,减少维护时间和工作量。

第二部分:空调技术方案与建议一、本工程中心机房空调负荷计算1、机房热负荷计算方法一机房主要的热负荷来源于设备的发热量及维护结构的热负荷。

因此,我们要了解主设备的数量及用电情况以确定机房专用空调的容量及配置。

根据以往经验,除主要的设备热负荷之外的其他负荷,如机房照明负荷、建筑维护结构负荷、补充的新风负荷、人员的散热负荷等。

如不具备精确计算的条件,也可根据机房设备功耗及机房面积,按经验进行测算。

按照机房热负荷各组成部分精确计算。

●设备热负荷(计算机及机柜热负荷);●机房照明热负荷;●建筑维护结构热负荷;●补充的新风热负荷;●人员的散热负荷等。

(1)设备热负荷:Q1=P*η1*η2*η3(kW)Q1:计算机设备热负荷P:机房内各种设备名义总功耗(kW)η1:同时使用系数η2:利用系数η3:负荷工作均匀系数通常,η1、η2、η3取0.7~0.8之间,考虑制冷量的冗余,通常η1×η2×η3取值为0.8。

如果设备总功耗为实际运行总功率,根据《邮电建筑设计规范YD/T 5003-2005》相关规定,此时设备运行总功率按照全部转化为设备热负荷计算。

(2)机房照明热负荷:Q2=C*S (kW)C:根据国家标准《计算站场地技术要求》要求,机房照度应大于2001x,其功耗大约为20W/m2。

以后的计算中,照明功耗将以20 W/m2为依据计算。

S:机房面积(3)建筑维护结构热负荷Q3=K*S/1000 (kW)K:建筑维护结构热负荷系数(50~60W/m2机房面积)S:机房面积(4)人员的散热负荷:Q4=P*N/1000 (kW)N:机房常有人员数量P:人体发热量,轻体力工作人员热负荷显热与潜热之和,在室温为21℃和24℃时均为130W/人。

(5)新风热负荷主要按照人员所需新风负荷量计算,一般较小,一般用机房空调设计冗余量进行平衡。

则,机房热负荷Q t= Q1+Q2+ Q3+ Q42、机房热负荷计算方法二机房主要的热负荷来源于设备的发热量及维护结构的热负荷。

因此,我们要了解主设备的数量及用电情况以确定机房专用空调的容量及配置。

根据以往经验,除主要的设备热负荷之外的其他负荷,如机房照明负荷、建筑维护结构负荷、补充的新风负荷、人员的散热负荷等。

如不具备精确计算的条件,也可根据机房设备功耗及机房面积,按经验进行测算。

采用“功率及面积法”计算机房热负荷。

Q t=Q1+Q2其中,Q t总制冷量(kW)Q1室内设备负荷(=设备功率×0.8)。

如果设备总功耗为实际运行总功率,根据《邮电建筑设计规范YD/T 5003-2005》相关规定,此时设备运行总功率按照全部转化为设备热负荷计算。

Q2环境热负荷(=0.12~0.18kW/m2 ×机房面积)3、机房热负荷计算方法三在实际工程方案设计中由于建筑物机构的复杂性与未来设备安装的不确定性,通常可以参考下表经验数值,然后根据总面积计算出冷量需求。

采用“面积估算法”估算机房热负荷。

Q t=S*P/1000 (kW)其中,Q t总制冷量(kW)S 机房面积(m2)P 机房热负荷系数二、空调配置方案及建议1、配置方案根据机房空调负荷估算结果,配置高效节能的Liebert.PEX机房空调。

建议一期配置3台艾默生P3140FC冷冻水下送风空调和6台艾默生P2070FC冷冻水下送风空调;注:1) 机房空调回风工况:24℃,50%RH;供回水温度7/12℃,水压降:83kPa;2)配置空调总制冷量按照主用空调数量核计,不计算备用空调制/显冷量,配置空调的总制冷量保证一定的冗余量。

2、机房内整体布局与气流组织:气流组织1、如图1,主设备划分冷热通道,地板下送风,自由空间回风:图1 地板下送风,自由空间热通道回风机房空调安装在热通道,送风口安装送风导流板送风至地板下,在冷通道安装送风风口,送风至主设备正面进风口,冷却主设备后,由主设备背面或者上部自由回风至机房空调。

气流组织2、架空地板下送冷风,天花板吊顶回热风的方式(层高满足要求的情况下),主设备机房划分冷热通道,如下图1。

机房空调安装在热通道,增加送风导流板送风至地板下,在冷通道安装送风风口,送风至主设备正面进风口,冷却主设备后,由主设备背面热通道经吊顶回风至机房空调。

图1 地板下送风、天花板吊顶热回风方案示意图3、新风引入:1)吊顶内引入新风混合方式:在吊顶回风的回风空间内,引入经过过滤处理的新风。

在平时用于满足工作人员的新风需求和保证机房密封所需的正压需求;在过渡季节加大送风新风量,新风量满足GB50174-93《电子计算机机房设计规范》要求的5%。

2)自由回风引入新风:在回风的热通道内,引入经过过滤处理的新风。

在平时用于满足工作人员的新风需求和保证机房密封所需的正压需求;在过渡季节加大送风新风量,新风量满足GB50174-93《电子计算机机房设计规范》要求的5%。

4、架空地板高度图2 架空地板高度根据数据中心中主设备的单机设备功耗,架空地板的高度如下表:表6:不同机柜功耗下建议的机房架空高度5、末端送风口末端地板送风口建议采用高开孔率孔板地板或者可调节的地板百叶风口,末端风口数量配置按照主设备负载情况布置。

末端风口数量计算:按照设计标准:地板风口风速小于2.0m/s,采用高地板开孔率60%~70%核算。

如下示例:2kW机柜:单块地板:300*600mm的50%开孔率地板3kW机柜:单块地板:300*600mm的60%开孔率地板5kW机柜:两块地板:300*600mm的60%开孔率地板图3 末端送风口6、室内外机安装1)室内机安装建议基本要求:A、房间整体通风顺畅,送风、回风无障碍。

B、室内机安装在机房内,贴墙安装,间距合理,前面预留充足的检修空间和通道。

2)加湿水管:主机房的机房空调给水管可由土建预留的每层自来供水管处驳接。

加湿水管处增加防水地漏,并在空调区域安装点式漏水告警装置检测漏水。

3)冷凝水管:建议数据中心在土建阶段预留好每层机房空调排水管,并直通室外或者集中立管排放。

在机房空调到位后,机房空调排水管与最近的区域的排水管驳接。

4)冷冻水管连接与墙洞预留:建议在土建阶段,预留好机房空调冷冻水管路由,并预留接口,阀门封堵,以方便空调机组连接,并做好冷冻水管的防漏措施。

5)空调配电:空调机组的配电箱建议在每层机房内独立设置,并且考虑空调配电箱的冗余备份,避免机房内配电的单点故障。

图4 冷冻水空调系统安装示意图三、方案优势综述1、先进性与实用性:本机房空调技术建议方案,在综合考虑机架安装、设备功耗、空调制冷量需求和空调安装位置等因素的基础上,进行配置。

空调系统方案采用当前先进主流的地板下送风吊顶热回风(或热通道自由回风)的气流组织方式,冷热通道分离,减少冷热风混合。

采用先进节能高效的艾默生的全球研发的Libert.PEX系列机房空调,具有多项先进且很有实用性的设计,如:ICOM智能群控系统、不受水质影响的远红外加湿器等。

注重安全可靠性和可维护性,可操作性,降低整个运行周期的全寿命成本。

2、安全可靠性:Libert.PEX系列机房空调机组均为标准化设计,包括室内送风机和送风电机等运动部件和系统均为内部互为备份:空调方案配置的安全可靠性:主设备机房按照N+1机房空调设计标准进行配置,保证机房内的空调容量和物理的冗余,保证数据中心运行的安全与可靠性。

相关文档
最新文档