高热密度数据中心制冷解决方案设计

高热密度数据中心制冷解决方案设计
高热密度数据中心制冷解决方案设计

高热密高热密度度数据中心数据中心制冷制冷制冷解决方案解决方案解决方案设计设计设计

艾默生网络能源有限公司艾默生网络能源有限公司 严瀚严瀚严瀚

摘要

摘要:高热密度数据中心具有强大的虚拟化、集中化、云计算等功能,节地、节能、节省人工等优点,因而存在巨大的应用优势,但是目前其方案、设备的设计、选型还没有成熟的理论指导。本文就高热密度数据中心设备的选型从理论和工程经验两方面进行了剖析,指出了建设高热密度数据中心的具体方法和发展方向。

关键词关键词::高热密度高热密度 数据中心数据中心数据中心 制冷解决方案制冷解决方案制冷解决方案 风量风量风量 焓焓 紊流紊流紊流 雷诺数雷诺数雷诺数 行间级制冷行间级制冷行间级制冷 机柜级制冷机柜级制冷 芯片级制冷芯片级制冷芯片级制冷 艾默生艾默生艾默生 XD XD 系统系统 CRV CRV 系统系统 CoolTherm CoolTherm 水冷机柜水冷机柜 微热管微热管微热管

引子引子:随着云计算的发展,传统的低密度数据中心已经不能满足日益发展的需求,因此出现了超过8kW/Rack 的数据中心,我们一般将8kW/R 至30kW/R 之间的热密度机柜成为高热密度机柜,超过30kW/R 发热量的机柜称之为超高热密度机柜(图1)。

图1 高热密度机柜出风口红外图

一、 选择建设选择建设高热密度数据中心高热密度数据中心高热密度数据中心的的原因

1、在传统的低密度数据中心中,设备占地面积广大,往往达到几千甚至上万平方米,这在建筑成本日益升高的今天,无疑是一种巨大的浪费。而高热密度数据中心,由于提高了机柜的装机容量,使得同样功能的数据中心面积可缩小60%以上。比如传统2kW/R 的机柜,若提升到10kw/R ,则可实现80%的节地,其建筑成本的节省就是一笔非常大的收益。

2、由于传统的机房精密空调需要依靠房间中的空气作为传导冷量的媒介,因此若机房面积大,其相应需要冷却的空气质量非常大,而空气中的水蒸气相变吸收的潜冷量更加巨大,因此若能减少面积,相应的建筑热负荷需求也会显著下降,可实现非常大的节能收益。

3、高热密度解决方案中精密空调均采用就近送风方案,需求风量比传统精密空调少很多,再加上风机技术上的革新,单风机系统就可比传统方案节能60%。

4、高热密度数据中心由于设备智能化的提高、面积的减小、服务器数目的减少,相应需求的维护人员数目大大下降,可节省巨大的人工开支。

5、高热密度数据中心可采用功能强大的刀片服务器,利用服务器虚拟化技术,可利用虚拟技术将其虚拟分割为若干个小的数据中心,相当于建立一个高密度数据中心,可代替传统的4-5个数据中心的功能;

6、高热密机房特点是冷量需求很大,而湿负荷需求很小,因此高热密度空调设计工况基本都接近显热比100%,这样可减少由于潜冷而带来的无谓除湿,更可进一步减少由此带来的无谓加湿,从而减少很大一部分除湿、加湿功耗。

7、由于高热密度机房空调停机之后温升速度非常之快,有分析指出,一个10kW 的数据中心,若空调停机短短3分钟,整个数据中心就将宕机。因此,高热密度空调肩负着非常重要的职责,其制造工艺、备件选用上都是采用行业最高标准,整机的MTBF 时间反而大大提高,可靠性相较于传统精密空调更高。在冷冻水型的高热密度数据中心中,由于末端精密空调的高度集中化,工程需求的管道总长大大减少,工程总的水流量会下降,管路的散热、泵的功耗、冷冻水塔的功耗、主机功耗都会因此而下降,工程建设费用、后期的运行均会大大减少。同时由于管道流量下降,管道压力也会下降,出现泄漏的可能性也会大大降低。 由于高热密度数据中心强大的虚拟化、集中化、云计算功能,节地、节能、节省人工、安全等的优点,因而存在巨大的应用优势,可行性非常之高。

二、服务器需求风量的确定

配置空调配置空调,,首先必须了解服务器机柜的冷量需求首先必须了解服务器机柜的冷量需求,,而由于一定工况下而由于一定工况下,,单位单位质量质量质量冷空气冷空气所能携带的冷量是有限的所能携带的冷量是有限的,,所以所以,,我们我们需要需要需要先先确定在服务器良好工作工况下确定在服务器良好工作工况下,,服务器机柜需求的换热的风量需求的换热的风量。。

(1)机柜需求冷量及风量计算如下

Q=C*T*G

其中Q 为换热量,T 为机架进出风口温差,C 为空气比热(1.01KJ/kg.C ),G 为风量kg/s 。 G=Q/(C*T)=1/(1.01*17.52)=0.0565kg/s ,空气密度在1atm ,干球温度18度,相对湿度80%下约为1.15kg/m3,则风量G=0.04913m3/s=176.8m3/h,考虑风量损失约需修正为180立方米/小时。

按照上述公式计算,则每kW需求180立方米/小时风量可保证服务器正常的进出风温度和正常工作。由于出风末端距离服务器机柜距离有所不同,因此考虑修正系数,行间空调末端送风量应保持在180-200立方米/小时左右。

(2)按照服务器进出口的焓差进行计算

利用服务器进口温度大概需求18度,80%,出风温度35.5度,出风相对湿度28.5%计算,可得进出口焓差为17.94kJ/kg。此进出口温度约需180立方米/小时即可保证1kW的冷量。

具体冷量会随进口温度波动,可能会有所变动,但总体风量需求也约在180-200立方米/小时。在不考虑气体粘度引起的紊流前提下,房间级空调视距离服务器机组距离远近,考虑25%的风量损耗,因此需求风量约260立方米/小时左右。

图2 服务器进出口焓值计算图

由于服务器机柜热密度增大,会造成风量需求增大,风量增大之后所带来的紊流增多,因此需求的风量会进一步增大(图3)。如紊流较大,风量不能正常传导到服务器机柜表面,不能带走热量,还会引起局部热点问题(图4)。

图3 紊流示意图 图4 紊流带来的换热不足

三、无量纲数无量纲数::雷诺数--房间级空调不能解决高房间级空调不能解决高热热密度的原因密度的原因::气流粘度引起的紊流 1、利用CFD 模拟可以建立普通房间级空调的风速场模拟图(图5),可见普通的房间级空调在送风气流组织中有很大的紊流,气体并不是按照想象的均匀从每个出风口导出,因此每个服务器得到的风量和冷量必然是不同的。

图 5 房间级空调房间级空调送风送风送风气流组织气流组织

由于大部服务器机柜走线的不合理性(图6),造成气流组织的紊乱,进一步造成机柜需求风量增大(图7)。

图 6 不合理的机柜走线

图7 机柜附近气流组织示意图

2、雷诺数

从根据牛顿第二定律建立的表征流体流动性质的纳维一斯托克斯方程式(Navier-Stokes equations)我们可以推导得到表征流体流动粘性的重要无量纲参数—雷诺数(Reynolds number)的表达式。

转化为无因此化的表达形式

由于测量管内流体流量时往往必须了解其流动状态、流速分布等,因此定义流体流动时的惯性力Fg和粘性力(内摩擦力)Fm之比称为雷诺数。用符号Re表示。Re是一个无因次量。

可得到雷诺数的表达形式

式中:

是平均流速(国际单位: m/s)

一般为特征长度,,矩形管道需乘以当量系数) (m)

D 管直径(一般为特征长度

动力黏度(Pa·s or N·s/m2)

流体动力黏度

μ流体

ν运动黏度(ν= μ/ ρ) (m2/s)

密度(kg/m3)

流体密度

ρ流体

流量(m3/s)

Q 体积

体积流量

A 横截面积(m2)

由上式可知,雷诺数Re的大小取决于三个参数,即流体的速度、流束的定型尺寸以及工作状态下的粘度。

雷诺数小,意味着流体流动时各质点间的粘性力占主要地位,流体各质点平行于管路内壁有规则地流动,呈层流流动状态。雷诺数大,意味着惯性力占主要地位,流体呈紊流流动状态,一般管道雷诺数Re<2000为层流状态,Re>4000为紊流状态,Re=2000~4000为过渡状态(这里的过渡状态是指流体的流动状态是介与层流与湍流之间的一种中间状态,而不同流体的从层流彻底转变为湍流的雷诺数并不相同)。在不同的流动状态下,流体的运动规律.流速的分布等都是不同的,因而管道内流体的平均流速υ与最大流速υmax的比值也是不同的。因此雷诺数的大小决定了粘性流体的流动特性。

由雷诺数可知,流体流动型态由下列因素决定:(1)流速。流速小时容易出现层流,流速大时则发生紊流,这就是大的IDC中心之所以采用静压箱要求控制其中风速在3m/s以下的原因;(2)管道直径。在其他条件不变的情况下,管道直径小易发生层流,直径大易发生紊流;(3)粘滞性。粘滞性大的水体易发生层流,粘滞性小的水体易发生紊流。

综上可知,当我们由于静压箱的设计要求,需要将静压箱中的风速控制在3m/s左右时,在空调出风横截面长度不变的情况下(即机房面积不变),其静压箱尺寸会由于需求风量增大而增大,直观反映就是静电地板的高度需要增大,相当于出风横截面的当量直径D增大,因而可由雷诺数公式推导得到:在其他参数不变条件下,雷诺数与地板高度成正比。

静电地板高度计算公式如下:

H=μ*Q/(L*V)

其中,H为静电地板高度,Q为总的设计风量,L为出风横截面长度,V为出风横截面风速,μ为静电地板考虑地板下其他对风阻碍的放大系数。

由上可知,当静电地板高度由于需求的风量增大,其高度也需不断增大,据经验计算,当地板高度超过1.2米以上,其气流雷诺数大于4000以上,紊流严重,风量损失严重,无法保证服务器得到足够的冷量,另外由于随着距离增长,远端的风量损失增多,其风速必然会降低,因此要保证远端的风速,近端的风速会更加高,近空调出风口附近的流体雷诺数更大,出口附近的紊流更见显著(见图3、图9、图10)。

图8 最小架高地板空间与机柜功率的经验关系

按照经验及公式得出的结果,在达到1.2米高静电地板时,房间级空调送风量应保持在260立方米/小时/机柜左右,最大只能解决8kW/Rack的高热密度问题(图8)。因此,再提高地板高度,并不能用传统的地板下送风式房间级空调进一步提高解决高热密度的能力,这主要是因为雷诺数,由于高度增大引发的紊流增多到一定界限,冷空气不能有效的通过地板下空间送到服务器机柜的进风口(图9、图10)。

紊流造成的送风距离限制((2)图9 紊流造成的送风距离限制

紊流造成的送风距离限制((1)图10 紊流造成的送风距离限制

(3)图12 紊流造成的服务器温度过高图11 紊流造成的送风距离限制

紊流造成的送风距离限制(

在上图中的某机房中,由于机柜密度较高,风量配置较大,紊流及延程损耗造成远端服务器不能有效换热,从而出现局部高温问题(图11、图12)。

3、静电地板的阻碍作用

由于静电地板存在一定的厚度,其上通风的网孔也相当于非常小的风管,虽然由于当量直径非常小,其流动状态大部分为层流,但是由于管壁存在摩擦,因此还是会损失一部分压力,这样,冷量到服务器的传导又会有一个比较大的衰减。这部分也需要考虑,因此,在有些送风距离较远的场合,需要考虑使用变通孔率的地板,在离空调较远区域使用通孔率较高的放静电地板,以利于冷空气的流动。

目前市场有射流地板辅助送风,可对地板造成的风量衰减进行补

充,但是其并不能解决长距离送风的紊流问题,因此其比较适合3kW

以下,空调机外余压不足的场合,并不能适用于高热密度数据中心。

在很小的机房中,如只有1-2排、5-10个机柜,送风距离较近的场合,由于减少了风的流动距离,因此延程紊流大幅度减小。此时房间级空调的风量只要保证足够大,地板高度降低(相当于当量直径D下降),让地板下风速增大,雷诺数处在4000以下,冷量可被空气有效传导的服务器表面,从而解决局部的高热密度问题。据经验分析,在12kW/R以上的数据中心中,同样的方案,地板高度处于300mm以下,风速增大的影响超过地板高度减小(当量直径减小)的影响,因此其雷诺数会超过4000,紊流增大到无法满足冷量传导的境况,因此也无法满足高热密度机柜的制冷需求。

在风管式送风系统中,由于其静压箱尺寸远远小于地板下空间静压箱,在大型IDC数据中心中,均流性较差,传递冷空气的效果是远远不如地板下送风方案的。基于上述的分析,风管型送风可解决小的(1-2排,5-10个机柜)、送风距离较近的、10kW/R功率以下的小型高热密度问题。

因此,在超过8kW/Rack发热量(即10kW/R功率)的高热密度方案中,只有摆脱送风紊流的影响,使用行间级空调、机柜级冷却设备或者芯片级冷却模式才能比较有效的解决高热密度需求的冷风量,可靠的解决高热密度问题。

四、数据中心高热密度解决方案

的发展

数据中心高热密度解决方案的发展

目前在CPU、服务器行业发展中,制约其速度的最大因素已经不再是电路的规模,而是其热量无法有效冷却,因此各个精密空调厂商都在不断的向机柜级、芯片级制冷的方向发展,以响应爆炸式增长的芯片散热需求。

其中机柜级制冷、芯片级制冷对整体系统设计要求较高,初投资较大,分散投资性较差,行间级空调部署较为简单,空调系统可自成单元,分散投资性较好,安全性能较高,总投资较小,是目前中小客户的最佳方案。

1、行间级制冷

目前常用的行间空调为标准机柜尺寸或者半机柜尺寸,送风末端放在机柜中间,就近送风,就近从服务器机柜后方吸收热风回到末端的蒸发器换热,空气循环路线非常的短,可有效避免紊流问题。

系统,由主机+末端的组合形式进行二次换热,出风末端贴近服务器机柜送

A、艾默生XD系统

风,可形成较完好的气流场(图14、图15),解决远距离送风的紊流问题。同时采集室内的实施环境温度,计算房间中空气的露点温度,通过控制循环泵压缩的时间来调节主机与末端之间冷媒管道中环保制冷剂R134a的温度,使之高于实时露点温度,从而达到100%显热的效果,实现100%无冷凝水,机房不出现明水,无安全隐患。应用此方案的Emerson全球数据中心荣获美国节能环保最高认证-“LEED金牌认证”。

行间送风方案::半机柜宽度可实现30kW制冷量

图13 XDH行间送风方案

冷通道送风方案::可实现20kW制冷量

图14 XDO冷通道送风方案

图15 XDV冷通道送风方案

可实现单机柜

单机柜8kW制冷量

冷通道送风方案:

:可实现

B、艾默生的CRV系统

艾默生针对中小机房开发的高热密度解决方案,单机标准机柜宽度下可实现20-40kW的制冷,安装快速,灵活、方便,扩容不受任何影响,可结合封闭冷通道产品运行,采用可变冷量的数码涡旋压缩机、可插拔式EC风机,实现了依据周边服务器需求变风量、变冷量的精确制冷效

果,是安全与节能的完美组合。

单台20-40kW制冷量

可实现单台

冷通道送风方案::可实现

图16 CRV冷通道送风方案

C、微软芝加哥数据中心的行间制冷送风系统

全球最大的数据中心-微软芝加哥数据中心采用定制化的集装箱产品,将行间制冷进行了最大化的利用,通过增大风扇功率、末端换热器效率(图17中凸起部分),可满足单机柜50kW以上的制冷量。同时集装箱内空间狭小,不需要额外冷却过多房间内空气,相当于采用了封闭冷通道技术。不足之处在于,其中走的是冷冻水,对于产品及工程要求非常高,否则可能出现漏水危害服务器的风险。

可满足单单机柜50kW制冷量

图17 微软集装箱式行间送风方案

微软集装箱式行间送风方案::可满足

2、机柜级制冷

机柜级送风系统的优势在于进一步贴近服务器,将换热器末端集成到了机柜上,此系统的设计较为复杂,适合对换热要求及场地有更高要求的场合,如超算中心、集装箱数据中心等。

艾默生的XD系列制冷剂背板XDR方案

A、艾默生的

制冷剂背板通过将50mm厚的微通道(Micro Channel)蒸发器放置于服务器机柜背后,从而利用服务器风扇进行换热,由于换热面积大,可满足服务器机柜的换热需求,实现非常高的节能效果。不配置风扇,加上门框等钣金结构,其总厚度仅仅150mm,可解决20kW的换

热需求,配置风机辅助蒸发换热,可达到40kW/Rack 的换热量。这种

设计的最大优势在于,仅仅利用XD 主机的循环泵(1.8kw )和服务器

的风扇进行循环换热,功耗非常的低。

B 、 艾默生的艾默生的艾默生的水冷水冷水冷背板背板CoolAdd 方案

艾默生水冷背板方案,通过在服务器机柜背后加装换热器及风机,利用冷冻水直接流过换热器换热,可实现对机柜的就近制冷,换热效果类似于制冷剂背板。

图18 艾默生水冷背板CoolAdd 水冷背板水冷背板机柜级机柜级机柜级制冷制冷制冷方案方案

C 、 艾默生的艾默生的艾默生的水冷水冷水冷机柜机柜CoolThrem 方案 艾默生的水冷机柜荣获德国工业设计“红点”大奖,采用封闭式的机柜内循环系统,将冷冻水蒸发器做入机柜底部,即使漏水也不会淹没上方的服务器,而是通过泄水孔流到地板下方去,这样相较于水冷背板安全性有了极大提高,单柜可放37U 高度的设备,最大制冷量可做到35kW 。上海超算中心就采用了这种方案,运行效果非常良好,节能性能突出。

图18 艾默生水冷艾默生水冷机柜机柜CoolTherm 机柜级机柜级制冷制冷制冷方案方案

3、芯片级制冷

芯片级制冷最大的优势是可以省却对整个房间空气的冷却成本,以及空调换热的辅助风扇功率,甚至服务器的风扇功率,直接和主板、芯片换热,从而减少了经过空气传导换热的带来的巨大能耗。虽然目前并未大规模应用,但随着电子主板、芯片发热量越来越大,这必然是数据中心高密解决方案发展的最佳方案。

A 、 帕尔贴帕尔贴

帕尔贴((Peltier )效应的热电制冷 当施加电压时,通过改变N 型和P 型半导体的结构建立固态热传导,将热量从一面传递到另一面,从而在芯片侧营造出冷面,实现热量的转移。

图19 热电制冷效应原理

其主要优势在于体积小,重量轻,工作几乎没有噪音,可靠性高,可用常规电源,可实现点制冷,启动快,但是也有巨大的缺点需要去克服,如造价昂贵,效率低下,仅有20-30%。但是随着高温超导材料的发展,其必然在芯片级制冷中有较好的应用前景。

B 、 芯片级的微热管芯片级的微热管

芯片级的微热管((Micro heat pipe )制冷 微热管实际还是采用相变制冷模式,只是将制冷系统集成到很小的管道中实现热量的搬运、转移,从而实现点、面的制冷。

图20 微热管微热管制冷制冷制冷原理原理

其主要优势在于体积小,依靠毛细泵力循环,耗能极小,由于其零热阻特性,可以用很微小的温差将热量传递至很远的距离,由于其微小的尺寸,在蒸发段上的温度很均匀,适用的范围很广泛,缺点是造价高、受重力影响较大,因此在宇航失重领域应用效果甚佳。同样随着真空、重力、常温超导材料的发展,其在芯片级制冷应用前景也非常广泛。

C 、 蒸发器与服务器主板相结合的换热器蒸发器与服务器主板相结合的换热器

通过空调厂家与服务器厂家技术的联合,直接将换热器与服务器主板装在一起,这样低温的制冷剂直接流过芯片表面带走热量,最大化的利用冷源。通过露点控制技术,可有效保证管路中的制冷剂温度高于房间空气中水的露点温度,从而实现100%不产生冷凝水,100%安全。这也是未来芯片级发展的最主流的、最可行的发展方式。

五、结语

随着全球互联网的飞速发展,人们的生活已经越来越离不开网络,数据交换的量每天都在以爆炸式增长,越来越多、越来越大、功能越来越丰富的数据中心正在不断的筹建中,由于高密度数据中心可以节省建筑成本以及建筑热负荷,减少对空气的不必要制冷;同时其设计显热比很高,因此可减少机房的不必要除湿以及相应带来的加湿能耗;并且由于采用了行间级、机柜级、芯片级制冷方案,大大减少了送风系统的能耗;在人员配置上,由于智能化和高度的集中化,维护、监控人员需求量大大下降;在可靠性上,由于使用了高可靠性的原理及部件,平局无故障率大大提升;在功能上,由于刀片服务器虚拟化技术的成熟,一个高功率的刀片服务器可虚拟执行几个甚至几十个传统服务器的任务,云计算和虚拟化得以实现。基于上述原因,高热密度数据中心的PUE 值在显著降低,其必将成为数据中心发展的主流方向。

参考文献

参考文献

[1] 陶文铨 著,《数值传热学》,西安交通大学出版社,2001-01-01,ISBN 978-7-5605-1436-9

[2] 艾默生网络能源有限公司空调技术应用部 著,《高热密度解决方案》;

[3] 【美】 ASHRAE TC9.9 主编,沈添鸿、杨国荣、陈亮、陈巍 翻译,《高密度数据中心案例研究与最佳实践》,原名《High Density Data Center Case Studies and Best Practices》;

[4] 【美】 ASHRAE TC9.9 主编,任兵、杨国荣、陈亮 翻译,《数据通信设施节能最佳实践》,原名《Best Practices for Datacom Facility Energy Efficiency》;

[5] Goff H L,《Ramadance A Modeling the coupled heat and mass transfer in a falling film[J]》, 《Heat Transfer》,1986,24(3):1971—1976

[6]R. K. 《Sinnott Coulson & Richardson's Chemical Engineering》, Volume 6: Chemical Engineering Design, 4th ed (Butterworth-Heinemann) ISBN 0 7506 6538 6;

数据中心制冷系统发展趋势

数据中心制冷系统发展趋势 数据中心制冷设备是为数据中心环境、数据中心主设备服务的、是依托于数据中心设备、功能而存在的,所以从根本上讲,我们看数据中心制冷系统的发展趋势,应该结合数据中心本身的发展来看,比如应用的行业、规模、主设备等等因素的变化都可能会导致数据中心制冷设备变化,甚至国内外标准的升级、国家区域政策的变化也对数据中心制冷的形态产生直接或间接的影响。 一、2000年左右数据中心行业发展初期,web1.0时代 1、数据中心特点 (1)计算机、互联网尚未普及,数据中心概念尚未建立; (2)小型计算机房、通信机房,设备少、面积小、单位发热低; (3)相关标准刚刚建立,多为借鉴国外标准,实际应用经验少; (4)对数据中心理解较少,主要解决安全性问题。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)基本功能实现,温湿度、洁净度。 3、制冷方案:以单元式风冷直膨设备为主 4、系统特点

(1)单元式分体机组,室外机占用空间; (2)单机冷量小,通常不超过100kW; (3)安装、运维简单; (4)自带加除湿功能; (5)能效受限,cop2.5左右; (6)室外机场地受限,占地较多,不适合高层写字楼。 二、2000年-2008年,数据中心行业快速成长期,进入web2.0时代 1、数据中心特点 (1)信息化建设加速,数据服务业务增加,机房数量增多、行业增多; (2)中大型机房开始出现,计算机房、通信机房开始转变为数据机房; (3)IT设备、服务器单位功耗增加、密度增加,对电、冷、空间、环境要求提升; (4)行业积累了一定经验,开始针对性定制或升级相关技术标准,规范更细致; (5)机房建设、运营更加专业化、标准化。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)能适应不同机房特点、方案灵活; (3)设备功能提升,如群组功能、智能运行功能等;

数据中心制冷技术的应用及发展V2 1

数据中心制冷技术的应用及发展 摘要:本文简要回顾了数据中心制冷技术的发展历程,列举并分析了数据中心发展各个时期主流的制冷技术,例如:风冷直膨式系统、水冷系统、水侧自然冷却系统及风侧自然冷却系统等。同时,分析了国内外数据中心制冷技术的应用差别及未来数据中心制冷技术的发展趋势。 关键词:数据中心;制冷;能效;机房;服务器 Abstract This paper briefly reviews the development of data center cooling technology, enumerates and analyzes the cooling technologies in data center development period. The enumerated technologies includes direct expansion air-conditioning system, water side cooling system, water side free cooling system and air side free cooling system, etc. At the same time, the paper analyzes the difference of data center cooling technology application between the domestic and overseas as well as the tendency of data center cooling technology in the future. Key words data center; cooling; efficiency; computer room; server 1前言 随着云计算为核心的第四次信息技术革命的迅猛发展,信息资源已成为与能源和材料并列的人类三大要素之一。作为信息资源集散的数据中心正在发展成为一个具有战略意义的新兴产业,成为新一代信息产业的重要组成部分和未来3-5 年全球角逐的焦点。数据中心不仅是抢占云计算时代话语权的保证,同时也是保障信息安全可控和可管的关键所在,数据中心发展政策和布局已上升到国家战略层面。 数据中心是一整套复杂的设施。它不仅仅包括计算机系统和其它与之配套的设备(例如通信和存储系统),还包含配电系统、制冷系统、消防系统、监控系统等多种基础设施系统。其中,制冷系统在数据中心是耗电大户,约占整个数据中心能耗的30~45%。降低制冷系统的能耗是提高数据中心能源利用效率的最直接和最有效措施。制冷系统也随着数据中心的需求变化和能效要求而不断发展。下文简要回顾和分析了数据中心发展各个时期的制冷技术应用,并展望了未来数据中心的发展方向。 2风冷直膨式系统及主要送风方式 1994年4月,NCFC(中关村教育与科研示范网络)率先与美国NSFNET直接互联,实现了中国与Internet全功能网络连接,标志着我国最早的国际互联网络的诞生。

数据中心空调制冷量的计算

办公场所空调制冷量怎么计算 办公室空调与面积要怎么匹配,会议室空调又怎么匹配,要怎么计算? 一冷量单位 〉千瓦(kw)—国际单位制,把制冷量统一到功率相同单位,是现在制冷界努力的方向 〉大卡(kcal/h)一习惯使用单位,与kw的换算关系为 1kcal/h=1.163w 1w=0.86kcal/h 1万大卡=11.6千瓦 〉冷吨(RT)----1吨0摄氏度的冰在24小时内变成0摄氏度水所吸收的热量。 1冷吨=3.517kw 〉匹(HP)---又称马力、匹马力,即表示输入功率,也常表示制冷量。表示功率时 1HP=0.735KW 〉表示制冷量时,实际含义为消耗1HP功率所产生的制冷量 1HP - - -2.2KW 二制冷量简便计算方法 精密空调的负荷一般要根据工艺房间的实际余热余温以及状态的变化进行准确计算,但在条件不允许时也可计算,下面介绍两种简便的计算方法: 方法一:功率及面积法 Qt=Q1+Q2 Qt总制冷量(kw) Q1室内设备负荷(=设备功率X0.8) Q2环境热负荷(=0.18KW/m2X机房面积)

方法二:面积法(当只知道面积时) Qt=S x p Qt总制冷量(kw) S 机房面积(m2) P 冷量估算指标 三精密空调场所的冷负荷估算指标 电信交换机、移动基站(350-450W/m2) 金融机房(500-600W/m2) 数据中心(600-800W/m2) 计算机房、计费中心、控制中心、培训中心(350-450W/m2) 电子产品及仪表车间、精密加工车间(300-350W/m2) 保准检测室、校准中心(250-300W/m2) Ups 和电池室、动力机房(300-500W/m2) 医院和检测室、生活培养室、洁净室、实验室(200-250W/m2) 仓储室(博物馆、图书馆、档案馆、烟草、食品)(150-200W/m2) 四根据不同的情况确认制冷量 情况一(没有对机房设备等情况考察之下) 数据室估算:在一个小型的金融机房中,数据设备室通常的面积小于50平方,在数据设备、机房的建筑热量没有确定下来之前,可以按照金融机房通用的估计方法进行机房空调制冷量的预估:500w~600w/m2 ,部分高容量机房达到800w/m2。例如数据室的面积为50 m2 ,则所需的制冷量约为:25kw。选用3

英维克:数据中心高效制冷整体解决方案

龙源期刊网 https://www.360docs.net/doc/433444547.html, 英维克:数据中心高效制冷整体解决方案 作者: 来源:《中国计算机报》2013年第15期 深圳市英维克科技有限公司(以下简称英维克)作为专注于机房与设备环境控制技术的国家级高新技术企业,掌握着世界领先的制冷系统核心技术、控制技术、结构设计技术,拥有多项专利。作为中国通信行业标准化协会全权会员单位,英维克参与了多个数据中心空调标准的起草和修订。作为中国数据中心工作组《数据中心空调系统应用技术白皮书》的主要起草人单位,英维克对数据中心制冷及节能方案,体现出深刻的理解,在数据中心空调技术的发展应用领域,展现出了强大的实力。英维克数据中心高效制冷方案和产品,获选数据中心“2012年度优秀解决方案奖”及通信行业“2012年度节能卫士奖”。针对不同的应用环境与需求,英维克为数据中心进行科学的制冷规划,并推出高效制冷整体解决方案。 1. 大型、中型数据中心高效制冷与自然冷却系统:对于新建数据中心,应用集成iFreecooling间接自然冷却技术的CyberMate(双循环)高能效空调系统,冬季可停止压缩机运行,通过制冷剂泵实现高效安全自然冷却。机组设计为高效涡旋压缩机、EC风机、电子膨胀阀、高效制冷剂泵等高效高可靠性器件,充分实现了制冷系统的高可靠性、高节能性。该解决方案和产品已经被中国联通、中国电信等客户广泛应用并推广,与常规机房专用空调系统比较,北方地区全年节能率超过40%,可充分降低数据中心全年PUE值。 对于在用数据中心,可通过英维克iFreecooling自适应多联(双循环)空调系统进行节能改造,通过制冷剂泵自适应多联循环,利用制冷剂相态变化,在低温季节充分利用自然冷源,根据室外温度条件以及室内热负荷情况自动判断启动或停止空调系统的压缩机运行以及室外冷凝器运行,通过iFreecooling系统的制冷剂的相态变化,实现高效自然冷却。iFreecooling启动时,能够减少约96%的压缩机能耗、超过25%的冷凝器能耗,整机节能率超过70%。该解决 方案和产品已经被中国移动、中国石油等客户广泛应用和推广,实现空调系统全年节能35%以上,机房节能15%以上。 2. 高热密度数据中心、模块化及集装箱数据中心的高效制冷与自然冷却系统:适合设计或部分设计有高功率机柜的,对PUE有较高要求的数据中心、模块化数据中心、集装箱数据中心。可应用靠近热源式冷却的XRow高效冷却方案,提供多种定制化设计。英维克的XRow列间空调,具备多种送风方式,可与封闭冷热通道配合设计,获得更佳效果。冷却方式包括:风冷、冷冻水、制冷剂循环等多种方式,结合iFreecooling 间接冷却技术,可实现高效自然冷却。该解决方案和产品中国移动、中国石化等客户广泛应用和推广,实现空调系统节能超过30%。 3. XRack微模块服务器机柜高效制冷系统:高效机柜制冷解决方案,包括户内微模块机柜解决方案与户外微模块机柜解决方案,在服务器机柜内实现了高效冷却,并集成模块化UPS、

数据中心机房制冷空调系统运维技术考核题目答案参考

数据中心(机房)制冷空调系统运维技术考核题目答案参考 类数据机房温湿度范围?单点温湿度波动范围? A类机房温湿度要求:23±1℃,40--55% ;单点温度波动小于5℃/h,湿度波动小于5%/h 参考:GB50174《电子信息系统机房设计规范》 2.空调回风参数:温度25℃,相对湿度50%;求露点温度? ℃参考:标准大气压湿空气焓湿图;此题关注会查空气状态点对应的露点温度和湿球温度 3.自然冷却模式、预冷模式、普通制冷模式的切换依据,对应的环境湿球温度值是多少? 湿球温度<10℃适合自然冷却模式,10--15℃之间适合预冷模式,>15℃适合普通制冷模式 参考:水冷自控系统供冷模式转换控制逻辑 4.机房空调送风距离多少米为宜?6-10m为宜 5.数据机房采用地板送风,风速范围多少m/s为宜? ( m/s最佳)参考:GB50174《电子信息系统机房设计规范》 6.数据机房新风正压要求数值? 机房与走廊;机房与室外参考:GB50174《电子信息系统机房设计规范》 7.数据机房新风量:人均参考值?每平米参考值?按机房换气次数每小时几次为宜? 按工作人员每人40m3/h;每平米25--30 m3/h;机房换气次数次/h(人员进出的机房取4次/h) 8.计算:900个标准机柜(13A)需要多大面积的机房合适?如选用艾默生冷水型机房空调P3150G至少需要多少台?按4-5台以上备份1台的标准,最多需要多少台?需要多大冷量的冷水机组提供冷源?需要多大风量的新风空调提供机房正压? 每个机柜加上冷热通道,平均面积取;×900=2070㎡(可分成4个㎡模块间,每个模块225台机柜) 每平米可用制冷量不能小于+每平米维护结构热负荷=每平米冷量需求 总冷量需求:×2070=3312KW 查艾默生冷水型空调样本:P3150G标准冷量为;需留有20%的预留(使用系数取) 艾默生P3150G冷水型空调单机净冷量:×= ○标准需求台数:3312÷≈28台;冗余配置(4+1):28÷4=7台(需配备机7台);含备机需28+7=35台 ○IT设备功耗转换成热量系数(取计算);13A机柜功耗,转换为热量÷≈ 总热负荷:×900=3429KW,除以P3150G空调单机净冷量≈29台,按冗余配置(4+1),需配备机7台;含备机需29+7=36台 ○空调系统制冷量取IT负载的倍;IT总负载:×900=2574KW;空调系统总制冷量:2574×= 除以P3150G空调单机净冷量≈28台,按冗余配置(4+1),需配备机7台;含备机需28+7=35台 ●需要冷量为3429KW(约1000RT)的冷水机组(离心式)1台提供冷源 新风量每平米25--30 m3/h(取30 m3/h);总新风需求30×2070=62100 m3/h,建议规划4个模块间单独提供新风62100÷4=15525 m3/h,需要新风量15525 m3/h的组合空调4台 9.制冷设备能效比EER是如何计算的? EER即制冷设备的制冷性能系数,也称能效比,表示制冷设备的单位功率制冷量。EER值越高,表示制冷设备中蒸发吸收的热量较多,压缩机耗电较少。数学计算公式:EER=制冷量(KW)/制冷消耗功率(KW) 单位:W/W或KW/h/W 10.冷站(动力站)COP是如何计算的? 冷水机组实际制冷量和配套设备(压缩机-马达+冷冻水循环泵+冷却水循环泵+冷却塔风机-马达)实际输入功率之比 11.数据机房PUE是如何计算的?绿色节能机房PUE标准? PUE是评价数据中心能源效率的指标,是数据中心消耗的所有能源(电能)与IT负载使用的能源(电能)之比PUE=数据中心总设备能耗/IT设备能耗;基准是2,越接近1表明能效水平越好 绿色节能机房PUE标准:以下 12.接题目8,匹配适合该冷水机组的冷却塔参数(流量)?冷却塔设在楼顶距冷站(动力站)20米,匹配适合该冷水机组的冷却循环泵参数(扬程和流量)?匹配适合该冷水机组和机房空调的冷冻循环泵参数(扬程和流量)(注:水泵出口至管网最高点垂直高度15米)? 水量需求:冷凝器()/RT 蒸发器(3/h)/RT

高热密度数据中心制冷解决方案设计

高热密高热密度度数据中心数据中心制冷制冷制冷解决方案解决方案解决方案设计设计设计 艾默生网络能源有限公司艾默生网络能源有限公司 严瀚严瀚严瀚 摘要 摘要:高热密度数据中心具有强大的虚拟化、集中化、云计算等功能,节地、节能、节省人工等优点,因而存在巨大的应用优势,但是目前其方案、设备的设计、选型还没有成熟的理论指导。本文就高热密度数据中心设备的选型从理论和工程经验两方面进行了剖析,指出了建设高热密度数据中心的具体方法和发展方向。 关键词关键词::高热密度高热密度 数据中心数据中心数据中心 制冷解决方案制冷解决方案制冷解决方案 风量风量风量 焓焓 紊流紊流紊流 雷诺数雷诺数雷诺数 行间级制冷行间级制冷行间级制冷 机柜级制冷机柜级制冷 芯片级制冷芯片级制冷芯片级制冷 艾默生艾默生艾默生 XD XD 系统系统 CRV CRV 系统系统 CoolTherm CoolTherm 水冷机柜水冷机柜 微热管微热管微热管 引子引子:随着云计算的发展,传统的低密度数据中心已经不能满足日益发展的需求,因此出现了超过8kW/Rack 的数据中心,我们一般将8kW/R 至30kW/R 之间的热密度机柜成为高热密度机柜,超过30kW/R 发热量的机柜称之为超高热密度机柜(图1)。 图1 高热密度机柜出风口红外图 一、 选择建设选择建设高热密度数据中心高热密度数据中心高热密度数据中心的的原因 1、在传统的低密度数据中心中,设备占地面积广大,往往达到几千甚至上万平方米,这在建筑成本日益升高的今天,无疑是一种巨大的浪费。而高热密度数据中心,由于提高了机柜的装机容量,使得同样功能的数据中心面积可缩小60%以上。比如传统2kW/R 的机柜,若提升到10kw/R ,则可实现80%的节地,其建筑成本的节省就是一笔非常大的收益。 2、由于传统的机房精密空调需要依靠房间中的空气作为传导冷量的媒介,因此若机房面积大,其相应需要冷却的空气质量非常大,而空气中的水蒸气相变吸收的潜冷量更加巨大,因此若能减少面积,相应的建筑热负荷需求也会显著下降,可实现非常大的节能收益。

常见数据中心冷却系统

常见数据中心冷却系统 由于数据中心的发热量很大且要求基本恒温恒湿永远连续运行,因此能适合其使用的空调系统要求可靠性高(一般设计都有冗余备机)、制冷量大、温差小和风量大。下面,我们简要介绍下适合数据中心部署的空调冷却系统。 1、风冷精密空调 这是数据中心最传统的制冷解决方案,单机制冷能力一般都在50到200KW之间,一个数据机房一般都是安装多台才能满足需要。下面是风冷精密空调的工作原理图。 风冷精密空调工作原理图 风冷精密空调一般采用涡旋压缩机制冷(一般安装在精密空调内),能效比相对比较低,在北京地区一般在1.5到3之间(夏天低,冬天高)。风冷精密空调在大型数据中心中使用存在以下不足: ●安装困难 ●在夏天室外温度很高时,制冷能力严重下降甚至保护停机

●对于传统多层电信机房,容易形成严重的热岛效应 ●需要开启加湿除湿功能,消耗大量能源 2、离心式水冷空调系统 这是目前新一代大型数据中心的首选方案,其特点是制冷量大并且整个系统的能效比高(一般能效比在3到6之间)。离心式制冷压缩机的构造和工作原理与离心式鼓风机极为相似。但它的工作原理与活塞式压缩机有根本的区别,它不是利用汽缸容积减小的方式来提高气体的压力,而是依靠动能的变化来提高气体压力。 离心式水冷空调系统

水冷冷冻机组的工作原理 离心式冷冻机组在小负荷时(一般为满负荷的20%以下)容易发生喘振,不能正常运转。因此,在数据中心水冷空调系统的设计中一般先安装一台小型的螺杆式水冷机组或风冷水冷机组作为过渡。大型数据中心的水冷空调系统一般由以下五部分组成,示意图如下。 水冷空调系统示意图 免费冷却技术指全部或部分使用自然界的免费冷源进行制冷从而减少压缩机或冷冻机消耗的能量。目前常用的免费冷源主要是冬季或春秋季的室外空气。因此,如果可能的话,数据中心的选址应该在天气比较寒冷或低温时间比较长的地区。在中国,北方地区都是非常适合采用免费制冷技术。

机房数据中心供配电系统解决方案

商业银行数据中心供配电系统解决方案 商行数据中心的基础设施系统主要分电源、环境控制和机房监控管理系统。由于数据中心承载商行的核心业务,重要性高,不允许业务中断。因而数据中心一般根据TIA942标准的Tier4标准建设,可靠性要求99.99999%以上,以保证异常故障和正常维护情况下,数据中心正常工作,核心业务不受影响。 1、 电源系统: 选用两路市电源互为备份,并且机房设有专用柴油发电机系统作为备用电源系统,市电电源间、市电电源和柴油发电机间通过ATS (自动切换开关)进行切换,为数据中心内UPS 电源、机房空调、照明等设备供电。由于数据中心业务的重要性,系统采用双母线的供电方式供电,满足数据中心服务器等IT 设备高可靠性用电要求。双母线供电系统,有两套独立UPS 供电系统(包含UPS 配电系统),在任一套供电母线(供电系统)需要维护或故障等无法正常供电的情况下,另一套供电母线仍能承担所有负载,保证机房业务供电,确保数据中心业务不受影响。在UPS 输出到服务器等IT 设备输入间,选用PDM (电源列头柜)进行电源分配和供电管理,实现对每台机柜用电监控管理,提高供电系统的可靠性和易管理性。 对于双路电源的服务器等IT 设备,通过PDM 直接从双母线供电系统的两套母线引人电源,即可保证其用电高可靠性。对于单路电源的服务器等IT 设备,选用STS (静态切换开关)为其选择切换一套供电母线供电。在供电母线无法正常供电时,STS 将自动快速切换到另一套供电正常的母线供电,确保服务器等IT 设备的可靠用电。 供配电系统拓扑图 机柜P D U 1机柜P D U 2 机柜机柜机 柜P D U 1 机柜机柜机柜P D U 2 机柜P D U 2 机柜P D U 1机柜机柜 机柜 图示双母线供电系统可确保供电可靠性高达99.99999%以上

大型数据中心制冷系统的三个关键

大型数据中心制冷系统的三个关键 目前,随着大型数据中心高密度服务器与低密度混合模式的出现,由于服务器的密度不均衡,因而产生的热量也不均衡,传统数据中心的平均制冷方法已经很难满足需求。 据统计,目前85%以上的机房存在过度制冷问题,而供电中只有1/3用在IT 设备上,制冷费用则占到总供电的2/3 。因此,降低能耗、提高制冷效率是大型数据中心建设的关键所在。北京世纪互联工程技术服务有限公司(以下简称BANYANO)于2008年12月,就大型数据中心制冷系统建设的几个关键性问题,发布了技术白皮书。 制冷模式的转变:集中制冷到按需制冷 在以往的空调系统设计中,多采取集中制冷模式,将空调房间考虑成一个均匀空间,按现场最大需求量来考虑。这种模式忽视了空间各部分的需要,缺少考虑制冷效率、制冷成本的意识。目前随着科学技术的发展以及高密度大型数据中心的建设需求,人们逐渐认识到按需制冷的必要和集中制冷的弊端。 据BANYANO技术人员介绍,“按需制冷”就是按机房内各部分热源的即时需要,将冷媒送到最贴近热源的地方。它最大的特点是制冷方式的定量化和精准化,从“房间级”制冷转变为“机柜级”制冷,最后到“芯片级”制冷。例如,在高密度大型数据中心的建设规划中,BANYANO采用了以“精密制冷”为核心的机柜级解决方案。将英飞集成系统的In-row制冷单元放在高密度服务器机柜旁边,针对每个热点进行降温,让冷热空气直接在机柜和空调之间以最短的路径循环,从而有效提高制冷效率。根据设备发热量的高低配置相应数量的制冷单元,以此做到按需供冷定量分配。与房间级制冷相比,In-row制冷对冷气的利用率达到70%,并能够处理更高的热负载密度。 送风方式的设计:上送风VS下送风 数据中心内显热庞大,潜热微小的环境导致需要大风量的空调系统。为保证数据中心内不同位置的IT设备都能处于适宜的温度和湿度,正确设计数据中心的送风和回风的气流组织成为大型数据中心制冷系统建设的重要环节。 建设大型数据中心制冷系统的三个关键</p

大型数据中心解决方案

大型数据中心
实现有效的联结
机架 机柜行 机房 整个大楼 确保整体系统的效率和可用性

动态的能源管理构架 … 从 电力生产到电力使用 与关键应用领域全面兼容 有效平衡施耐德电气和第三方供应商之间的开放式标准
2

数据中心方向
整个业界都在行动, 致国于制定政策和相应的行为规范
● 绿色网格全球联盟一直致力于制定标准, 衡量,流程和技术以提升数据中心的性 能 ● 美国环境保护局 (EPA) 正在确定数据中心的效率标准 (能源之星评级) ● 欧盟委员会能源研究所 d正在确定数据 中心效率的 “行为准则” ● 大型企业联合会也正在开始确定公共的 碳承诺
是绿色网格计划的的创始成员及董事 会成员单位
效率不容忽视
3

什么是DCPI….
Data Center Physical Infrastructure
IT floor The “white space”
涉及供电,制冷,机架系统,安 防,管理等为IT设备提供技 持的各个层面
我们全面端到端视角对于可用性 我们全面端到端视角对于 可用性和 和效率 效率产生深远的影响 产生深远的影响
4

所有的挑战都汇集于数据中心
● IT密度不断提升,且已超出传统的供电和制冷基础设施的能力范围
● 分布式数据中心的的集中化 ● 虚拟化和IT运算的随需而变
● 设计及构建的周期需要更快可预见性更高
● 反复多变的商业氛围要求数据中心具有特别的灵活性以与其保持同步 多变 氛 要 其 ● IT技术的发展变化为”早期的使用者”带来明显的商业优势
● 能效现是已是一个全球性的问题
● 由于能耗大而且需求不断提升,数据中心已成为焦点 由于能耗大而且需求不断提升 数据中心已成为焦点 ● 能源成本和可用性会对底限产生影响
5

数据中心空调系统制冷量确定方法

数据中心空调系统制冷量确定方法 数据中心温度是确保服务器等IT设备正常稳定运行的先决条件,温度对计算机设备的额电子元器件、绝缘材料以及记录介质都有较大的影响。在正常工作的服务器中,一般CPU的温度最高,当电子芯片的温度过高时,非常容易出现电子漂移现象,服务器就可能出现宕机甚至烧毁。因此机房环境温度与设备运行的可靠性之间有必然联系。数据中心机房建设的国家标准GB50174-2008《电子信息机房设计规范》对机房开机时的环境的要求如下表所示: 为使数据中心能达到上述要求,应采用机房专用空调(普通民用空调、商用空调与机房专用空调的差异对比不在本文讨论范围)。如果数据中心机房环境不能满足以上要求会对服务器等IT设备造成以下影响: 温度无法保持恒定-造成电子元气件的寿命降低 局部温度过热-设备突然关机 湿度过高-产生冷凝水,短路 湿度过低-产生有破坏性的静电 洁净度不够-机组内部件过热,腐蚀 IDC机房的热源不是唯一的,由多种成分组成,按《电子信息机房设计规范》中规定,机房的热负荷应包括下列内容: 计算机和其他设备的散热 建筑围护结构的传热 太阳辐射热 人体散热、散湿 照明装置散热 新风负荷 热负荷的计算方法很多,有精确算法、估算法,本文结合各种算法,针对主要热源进行精确计算。当上述各项热负荷之和确定后,就可以初步确定对空调机制冷能力的要求。对于中高档机房,应优先选用模块化机房专用空调,这样对机房将来的运行、扩容和改造都十分有利。 数据中心热负荷及其计算方法

1、机房热负荷计算方法一:各系统累加法 (1)设备热负荷: Q1=P×η1×η2×η3(KW) Q1:计算机设备热负荷 P:机房内各种设备总功耗(KW) η1:同时使用系数 η2:利用系数 η3:负荷工作均匀系数 通常,η1、η2、η3取0.6~0.8之间,考虑制冷量的冗余,通常η1×η2×η3取值为0.8。 (2)机房照明热负荷: Q2=C×S(KW) C:根据国家标准《计算站场地技术要求》要求,机房照度应大于2001x,其功耗大约为20W/M2。以后的计算中,照明功耗将以20W/M2为依据计算。 S:机房面积 (3)建筑维护结构热负荷 Q3=K×S/1000(KW) K:建筑维护结构热负荷系数(50W/m2机房面积) S:机房面积 (4)人员的散热负荷: Q4=P×N/1000(KW) N:机房常有人员数量 P:人体发热量,轻体力工作人员热负荷显热与潜热之和,在室温为21℃和24℃时均为130W/人。 (5)新风热负荷计算较为复杂,我们以空调本身的设备余量来平衡,不另外计算。 以上五种热源组成了机房的总热负荷,即机房热负荷Qt=Q1+Q2+Q3+Q4。由于上述(3)(4)(5)计算复杂,通常是采用工程查表予以确定。但是因为数据中心的规划与设计阶段,非常难以确定,所以实际在数据中心中通常采用设计估算与事后调整法。 2、机房热负荷计算方法二:设计估算与事后调整法 数据中心机房主要的热负荷来源于设备的发热量及维护结构的热负荷。 因此,要了解主设备的数量及用电情况以确定机房专用空调的容量及配置。根据以往经验,除主要的设备热负荷之外的其他负荷,如机房照明负荷、建筑维护结构负荷、补充的新风负荷、人员的散热负荷等,如不具备精确计算的条件,也可根据机房设备功耗及机房面积,按经验进行测算。 采用“功率及面积法”计算机房热负荷。 Qt=Q1+Q2

数据中心房间制冷方式白皮书

简介 2房间级、行级和机柜级制冷2三种制冷方式的比较6结论11资源 12 点击内容即可跳转至具体章节 目录 数据中心房间级、行级和机柜级 制冷方式的选择

数据中心IT 负载所消耗的电能几乎都会变成废热,必须将这些废热排出去以防止数据中心温度过热。实际上,所有IT 设备都是风冷型设备,也就是说,每台IT 设备都会吸入周围环境的冷空气,再排出热空气。由于一个数据中心可能包括数千IT 设备,因此数据中心内会有数千条热气流排风路径,它们共同构成了数据中心的总废热,这些废热必须排出去。空调系统对数据中心的作用就是高效收集这些复杂的废热气流,并将它们排到室外去。 过去,数据中心制冷一直采用周边制冷装置,在高架地板下方分配冷气流,不采取任何形式的气流遏制。这称为“精确送风、自然回风”的气流分配方法,具体请参见第55号白皮书《用于IT 环境的各种气流分配方案》。此种方法是并行运行一个或多个空调系统,将冷空气送入数据中心,并吸回机房环境中较热的空气。这种方式的基本原理是,空调不仅提供原始制冷容量,而且还作为一个大型的混合器,不断搅动混合机房中的空气,使之达到一致的平均温度,以防止热点的出现。这种方法只有在混合空气所需功耗仅占数据中心总功耗很小一部分时才有效。模拟结果和经验表明,仅当数据中心平均功率密度为每机柜1~2kW 左右,即323~753 W/m2(30~70 W/ft2)时,该系统才能发挥应有的效果。虽然可采取各种措施来提高此传统制冷方法的功率密度,但在实际实施时仍有限制。如需了解更多有关使用传统制冷的限制的信息,请参见第46号白皮书《超高密度机柜和刀片服务器散热策略》。随着现代IT 设备的功率密度将峰值功率密度提升至每机柜20kW 甚至更高,模拟结果和经验都指出,基于混合空气的传统制冷(无气流遏制)不再能起到有效的作用。 为解决这一问题,在设计数据中心时会采用侧重房间级、行级和机柜级制冷的设计方式。在这些方式中,空调系统将分别与房间、机柜行或单个机柜集成,以减少空气混合。这样可以提高可预测性、密度和效率,同时还带来很多其它优势。在本白皮书中,介绍并比较了各种制冷方式。我们可以看出,这三种制冷方式都有相应的应用,总体而言,趋势是,较小数据中心和高密度区域将采用行级制冷,而较大型数据中心则会更多地采用带气流遏制的房间级制冷。 每个数据中心的空调系统都有两个重要功能:提供总制冷容量,以及将向IT 负载分配冷气流。对于房间级、行级和机柜级制冷来说,第一个功能,即提供总制冷容量的功能都是相同的,以千瓦为单位的空调系统的总制冷容量,必须超出IT 设备的总功率负载(千瓦)。无论制冷系统采用房间级、行级还是机柜级设计,提供该功能的各种技术都是相同的。这些制冷方法的主要差别在于,它们如何执行第二项关键功能,即将冷空气分配给负载。与将电流限制在线缆中并作为设计的一部分的清晰可见的配电不同,气流只是大体受限于机房设计,实际气流在实施过程中并不可见,而且不同部署地点之间会有很大差异。气流控制是不同制冷系统设计方式的主要目标。图1以总平面图形式展示了三种基本制冷方式配置。图中,黑色方框表示按行排列的机柜,蓝色箭头表示机房空气处理(CRAH )机组与IT 机柜中负载间的逻辑关联。CRAH 机组的实际物理布局可能会有所不同。采用房间级制冷时,CRAH 机组与机房相关联;采用行级制冷时,CRAH 机组与机柜行或机柜组相关联;而采用机柜级制冷时,CRAH 机组则与各机柜相关联。 简介 房间级、行级和机柜级制冷 图1 此平面图显示了房间级、行级和机柜级制冷的基本概念。蓝色箭头表示主要制冷送风路径与机房的关系。 用于IT 环境的各种气流分配方案 资源链接 第55号白皮书 超高密度机柜和刀片服务器散热策略 资源链接 第46号白皮书

数据中心机房环境及供配电系统解决方案

数据中心机房环境及供配电系统解决方案 一、机房环境 1、以通信行业标准规定的通信设备(交换设备、传输设备、数据网络设备)的正常使用环境要求为基础,确定数据中心机房的环境要求。 2、机房环境温湿度要求 AA级、A级机房温度为21~25℃,B级、C级机房温度为18~28℃,相对湿度40~70%,温度变化率小于5℃/h,且不结露。 3、机房洁净度要求 机房内灰尘粒子应为非导电、非导磁及无腐蚀的粒子。灰尘粒子浓度应满足:(1)直径大于0.5μm的灰尘粒子浓度≤18000粒/升。(2)直径大于5μm 的灰尘粒子浓度≤300粒/升。 3.1.4 楼层净空高度要求 (1)数据中心机房的有效净空高度是指设备机柜底部至横梁底部之间高度,不宜小于3200mm。 (2)当机房上方需要安装风管时,有效净空高度应相应增加;采用高度大于2200mm机柜时,有效净空高度也应相应增加。 4、数据中心一般机房的楼面均布活荷载应为6~10kN/m2;电源电池室机房的楼面均布活荷载应符合相关标准要求。 5、机房走线架应选择敞开式线架,走线架不设底板和侧板,宽度应不小于400mm,且与机柜顶端间距应不小于300mm。 二、机房供电系统 1、电源系统: 选用两路市电源互为备份,并且机房设有专用柴油发电机系统作为备用电源系统,市电电源间、市电电源和柴油发电机间通过ATS(自动切换开关)进行切换,为数据中心内UPS电源、机房空调、照明等设备供电。由于数据中心业务的重要性,系统采用双母线的供电方式供电,满足数据中心服务器等IT设备高可靠性用电要求。双母线供电系统,有两套独立UPS供电系统(包含UPS配电系统),在任一套供电母线(供电系统)需要维护或故障等无法正常供电的情况下,另一套供电母线仍能承担所有负载,保证机房业务供电,确保数据中心业务不受影响。在UPS输出到服务器等IT设备输入间,选用PDM(电源列头柜)进行电源分配和供电管理,实现对每台机柜用电监控管理,提高供电系统的可靠性和易管理性。对于双路电源的服务器等IT设备,通过PDM直接从双母线供电系统的两套母线引人电源,即可保证其用电高可靠性。对于单路电源的服务器等IT设备,选用STS(静态切换开关)为其选择切换一套供电母线供电。在供电母线无法正常供电时,STS将自动快速切换到另一套供电正常的母线供电,确保服务器等IT设备的可靠用电。 2、机房智能配电系统三级结构 数据中心三级配电系统是对机房配电的创新,机房三级配电系统有利于配电系统的设计和运维管理

数据中心运维服务术语

数据中心基础设施:包括供配电系统、空调与制冷系统、制冷自控(BA)系统、动环监控系统、防雷接地系统、综合布线、安防消防及安全防护。 供配电系统:包括供电设备与供电路由。供电设备包括高低压成套柜、变压器、发动机组、UPS、高压直流、蓄电池组、列头柜等;供电路由包括高低压供电线缆及母排。 空调与制冷系统:包括制冷设备与制冷回路。制冷设备包括冷水机组、冷冻水机房空调、蓄冷设备、冷却塔、水泵、热交换设备、直膨式机房空调、新风设备等。制冷回路包括冷冻水管道、冷却水管道、水处理设备、定压补水装置、阀门仪表、气流组织等。 动环监控系统:包括监控硬件与监控软件。监控硬件包括服务器硬件、传输网络、采集单元、传感器变送器、智能设备等。监控软件包括数据库软件、系统软件等。 制冷自控(BA)系统:包括软件、系统服务器、监控主机、配套设备、网络传输设备、计算机监控网络、DDC控制器及前端点位采集设备。 防雷接地系统:包括外部防雷装置和内部防雷装置。外部防雷装置主要用于防护直击雷,主要包括接闪器、引下线、接地系统等。内部防雷装置主要用于减小和防止雷电流产生的电磁危害,包括等电位连接系统、接地系统、屏蔽系统、SPD等。 安防系统:包括视频监控系统、出入口控制系统、入侵报警系统、电子巡更系统等。 消防系统:包括早期报警系统、火灾自动报警系统、水/气体灭火系统、消防联动控制系统等。 服务等级协议(SLA):服务提供商和客户之间签署的描述服务范围和约定服务级别的协议。 日常巡视:定期对机房环境及设备进行巡视检查,以确认环境和设备处于正常工作状

态,开展方式一般为目测。 例行维护:定期对机房环境及设备进行的维护工作,以防止设备在运行过程中出现故障。 预防性维护:有计划地对设备进行深度维护或易损件更换,包括定期维护保养、定期使用检查、定期功能检测等几种类型;让设备处于一个常新的工作状态,降低设备出现故障的概率。 预测性维护:通过各种测试手段进行数据采集及分析,判断设备的裂化趋势、预测可能发生的潜在威胁,并提出相应的防范措施。 标准操作流程(SOP):SOP是将某一项工作的标准操作步骤和要求以统一的格式描述出来,用来指导和规范日常的运维工作。 维护操作流程(MOP):MOP用于规范和明确数据中心基础设施运维工作中各项设施的维护保养审批流程、操作步骤。 应急操作流程(EOP):EOP用于规范应急操作过程中的流程及操作步骤。确保运维人员可以迅速启动,确保有序、有效地组织实施各项应对措施。 场地配置流程(SCP):动态管理数据中心基础设施系统与设备运行配置。 事件管理:事件是指较大的、对数据中心运行会产生一定影响的事情,故障属于事件的一种。事件管理是指识别事件、确定支持资源、快速解决事件的过程。事件管理的目的是在出现事件时尽可能快地恢复正常运行,把对业务的影响降为最低,确保服务质量满足SLA要求。如果事件原因暂时未找到,则该事件升级为问题管理,通过问题管理的方式追踪根本原因。

数据中心运维服务-术语

1.1术语 数据中心基础设施:包括供配电系统、空调与制冷系统、制冷自控(BA)系统、动环监控系统、防雷接地系统、综合布线、安防消防及安全防护。 供配电系统:包括供电设备与供电路由。供电设备包括高低压成套柜、变压器、发动机组、UPS、高压直流、蓄电池组、列头柜等;供电路由包括高低压供电线缆及母排。 空调与制冷系统:包括制冷设备与制冷回路。制冷设备包括冷水机组、冷冻水机房空调、蓄冷设备、冷却塔、水泵、热交换设备、直膨式机房空调、新风设备等。制冷回路包括冷冻水管道、冷却水管道、水处理设备、定压补水装置、阀门仪表、气流组织等。 动环监控系统:包括监控硬件与监控软件。监控硬件包括服务器硬件、传输网络、采集单元、传感器变送器、智能设备等。监控软件包括数据库软件、系统软件等。 制冷自控(BA)系统:包括软件、系统服务器、监控主机、配套设备、网络传输设备、计算机监控网络、DDC控制器及前端点位采集设备。 防雷接地系统:包括外部防雷装置和内部防雷装置。外部防雷装置主要用于防护直击雷,主要包括接闪器、引下线、接地系统等。内部防雷装置主要用于减小和防止雷电流产生的电磁危害,包括等电位连接系统、接地系统、屏蔽系统、SPD等。 安防系统:包括视频监控系统、出入口控制系统、入侵报警系统、电子巡更系统等。 消防系统:包括早期报警系统、火灾自动报警系统、水/气体灭火系统、消防联动控制系统等。 服务等级协议(SLA):服务提供商和客户之间签署的描述服务范围和约定服务级别的协议。 日常巡视:定期对机房环境及设备进行巡视检查,以确认环境和设备处于正常工作状态,开展方式一般为目测。 例行维护:定期对机房环境及设备进行的维护工作,以防止设备在运行过程中出现故障。 预防性维护:有计划地对设备进行深度维护或易损件更换,包括定期维护保养、定期使用检查、定期功能检测等几种类型;让设备处于一个常新的工作状态,降低设备出现故障的概率。

数据中心制冷和节能技术

云计算时代的数据中心,一方面要求数据中心保持高可用性,能高效、安全地运营;另一方面,用户会尽可能要求数据中心降低能源消耗和运行成本;而且数据中心必须具备灵活的扩展能力,以应对多变的业务需求及未来的不确定因素。而根据最新统计,机房空调系统占总个数据中心的电耗比例达到将近45%,其中冷源部分占到2/3.绿色数据中心的构建,机房空调的节能解决方案成了重中之重,刻不容缓。 作为节能环保法律法规最健全的经济体,欧洲尤其注重提高数据中心能源利用效率,优化IDC功耗利用效率(PUE),热电冷联供、冰帽供冷、机柜供冷、自然冷却、热回收技术及磁悬浮变频离心等技术的较早采用,使欧洲数据中心成为最有可能最先达到优化 PUE=1.2的理想境界的数据中心。 1. 具有自然冷却的冷水机组 数据中心通常都需要常年不间断供冷,常规的制冷系统,室外温度即使是低于或远低于其循环冷冻水温的情况下冷水机组也需要照常运行。自然冷却(Freecooling)机组与常规冷水机组最大的区别在于它带有独特的风冷自然冷却换热器,其运行优先利用天然环境的低温空气冷却循环冷冻水,可以实现无压缩机运行制冷,显著节省压缩机的电耗。 在夏季,自然冷却机组与常规空调一样仍旧采用压缩机制冷。在过渡季,当环境温度达到比冷冻水回水温度低2℃或以上时,开起Freecooling自然冷却,利用冷空气的冷量预冷冷冻水,无需压缩机功耗;自然冷却不足部分,再由常规压缩制冷接力,从而减少了系统功耗。在冬季,完全靠Freecooling自然冷却冷却冷冻水,不需压缩机开起,只需少量风扇电耗,能效比高达20以上。通过自然冷却技术,在过渡季和冬季减少了压缩机工作时间和强度,有效降低了制冷功耗。与常规的冷水机组相比,以北京纬度地区为例,常年节电达到30%~38%. 2. 热回收技术利用 大型数据中心常年需要不间断的冷源,需要冷水机组高效制冷完成。而与数据中心配套的周边办公、运维和宿舍在冬季却同时需要大量的热量来解决供暖问题。在常规设计中,供暖需要锅炉或热泵解决,需要消耗大量的能源。新的热回收技术,免费利用制冷机组在制冷时候向环境中排放的冷凝热来加热供暖系统,从而不需要锅炉或热泵系统。在冬季需要供暖时,系统回收冷凝热来实现,多余的冷凝热仍旧排放到环境中去。由于实现制冷机组的冷热联供,综合能效比达到9~10,这是其他任何冷机效率所无法比拟的。采用这种热回收技术,一个数据中心的上万平方米的办公、运维和宿舍都可以实现免费供暖。 3.高效磁悬浮变频离心冷水机组

面向数据中心的高效冷冻水系统解决方案(可编辑)

面向数据中心的高效冷冻水系统解决方案 艾默生SPC 系列机房专用冷冻水机组 面向数据中心的高效冷冻水系统解决方案艾默生系列机房专用冷冻水机组SPC 当今冷冻水空调技术已经满足了很多 不同需求,应用非常广泛。从普通住宅到 工业领域,从商业领域到技术领域均有大 范围的使用。 为了满足技术的日新月异、问题的层 出不穷带来的数据机房项目的需求,艾默 生推出系列配置灵活、绿色节能的冷冻水 主机。它针对具体问题具体分析,根据不 同的项目满足不同的需求,是一款结合机 械制冷与的机房空调冷水主 free-cooling 机。此产品是精密空调冷冻水 EMERSON 家族的成员,艾默生系列机房专用冷 SPC 冻水机组是基于艾默生全球研发与设计平

台的高端机组 , 它制冷能力可以覆盖从 到。 45KW 2600KW 应用范围 ■数据中心(IDC ) ■高科技环境及实验室 ■工业生产厂房 ■电子、化工、冶金、制药、机械等行业的 工艺需求 01艾默生系列机房专用冷冻水机组 SPC 数据中心冷水系统对冷水主机的特殊需求 机房级等级设计,可365X24 不间断稳定运行可与系统设备实现群控及能效管理 ■■ 365天,24小时常年不间断运行,机组设计寿命长机组可以和室内精密空调末端、水泵、冷却塔实现群 控 ,根据系统负荷调整系统设备运行状态 ,系统整体实现 适应高温严寒恶劣气候条件,冬季不停机 能效管理 ■ 不受高温严寒恶劣气候影响,全天候运行

可支持在线PUE 数据输出输入及显示 多机头设计,系统运行安全性高 ■ 机组可以支持输入IT 机房所有相关数据,在线显示PUE ■ 多机头设计,每一台压缩机为一个制冷回路进行,各系值;也可以显示、输出空调制冷因素,提供PUE 计算的空统可独立运行,系统安全性高,节能性强 调因子 可根据负荷变化调整水温,系统持续高效运行 提供Free-cooling功能,实现冬季运行节能 ■ 机组根据机房实际负载调整水温,高供水温差,高节能 ■ 机组可具备Free-cooling 功能,冬季运行节能模式,全年效果,高经济效益 能耗更低 可与室内末端及系统主设联动,一键开机 ■ 机组可以和室内精密空调末端及水泵、冷却塔联动,无 需逐级开机,可以实现系统设备一键开启功能 机组特点

相关文档
最新文档