数据中心制冷系统41问答题

数据中心制冷系统41问答题
数据中心制冷系统41问答题

数据中心制冷系统41问答题

1、制冷系统中安全运行的三个必要条件是什么

答:(1)系统内的制冷剂压力不得出现异常高压,以免设备破裂。(2)不得发生(可能导致)湿冲程、液爆、液击等误操作,以免设备破坏。

(3)运动部件不得有缺陷或紧固件松动,以免损坏机械。2、什么叫蒸发温度?

答:(1)蒸发器内的制冷剂在一定压力下沸腾气化时的温度称蒸发温度。

3、什么叫冷凝温度

答:(1)冷凝器内的气体制冷剂,在一定压力下凝结成液体的温度称为冷凝温度。

4、什么叫再冷却(或称过冷)温度?

答:(1)冷凝后的液体制冷剂在冷凝压力下被冷却到低于冷凝温度的温度称再冷却温度(或过冷温度)。

5、什么叫中间温度?

答:(1)双级压缩系统,中间冷却器中制冷剂在中间压力下所对应的饱和温度称为中间温度。

6、(如何检测、如何控制)压缩机的吸气温度?

答:(1)压缩机的吸气温度,可以从压缩机的吸气阀前面的温度计测得。排气温度与(吸、排气的)压力比及吸气温度成正比。吸气过热度越高、压力比越大,排气温度就越高;否则相反。一

般排气压力稍高于冷凝压力。

7、什么叫潮车(液击)?

答:(1)制冷剂因未能或未充分吸热蒸发,制冷剂液体或湿蒸汽被压缩机吸入到压缩机内称为潮车。

8、(如何检测)压缩机排气温度,(排气温度受哪些因素影响)?答:(1)压缩机的排气温度可以从排气管路上的温度计测得。排气温度与(吸、排气的)压力比及吸气温度成正比。吸气过热度越高、压力比越大,排气温度就越高;否则相反。一般排气压力稍高于冷凝压力。

9、什么原因能引起潮车?

答:(1)气液分离器或低压循环桶的液位控制失灵,导致液位超高。

(2)供液量过大,供液过急。节流阀内漏或开度过大。

(3)蒸发器或气液分离器(低压循环桶)存液过多、热负荷小、开机时加载过快。

(4)热负荷突然增大;或冲霜后未及时调整吸气阀。

10、潮车后会造成什么后果?

答:对于活塞机(1)制冷剂进入压缩机,使润滑油产生大量气泡、破坏润滑油表面油膜,同时使油压不稳定。

(2)使运动部件没有在良好润滑条件下运转,导致拉毛;严重时抱轴、主轴瓦巴氏合金熔化。

(3)制冷剂进入压缩机,使气缸套急剧冷却收缩,抱住活

塞;严重时损坏缸套、活塞、连杆、活塞销。

(4)因液体不可压缩,连杆、活塞在潮车情况下受到的作用力远远超过设计值,极易引起损坏;因液体不可压缩,在潮车情况下,排气阀组连同假盖会被液体冲击抬起;严重时会导致安全弹簧变形,甚至发生撞碎机体、缸盖,击穿垫片而伤害人身的恶性事故。

11、发现潮车因如何处置?

答:(1)活塞压缩机发生潮车时,应马上关小压缩机的吸气截止阀,并关闭节流阀停止供液。如果吸气温度继续降低,要继续关小甚至关闭吸气阀,同时卸载、直至减至零位。利用曲轴旋转时与轴瓦的摩擦热使曲轴箱内的制冷剂蒸发,待曲轴箱内压力升高,投入一组气缸工作,压力降低后再卸载。反复多次进行,直至曲轴箱内制冷剂完全蒸发。之后,稍微打开吸气截止阀,缓慢增载。如果吸气管路中仍有制冷剂液体,应重复前面的过程。直至液体完全排净,缓慢打开吸气截止阀,压缩机投入正常工作。发生潮车时,应注意观察并调整油压,如没有油压或油压过低,因马上停机,将曲轴箱内的润滑油及制冷剂放出,重新加油再开机操作。螺杆压缩机发生潮车时,应马上关小压缩机的吸气截止阀,并关闭节流阀停止供液。如果吸气温度继续降低,要继续关小但不能关闭吸气阀,防止吸气压力过低出现异常声响及震动,同时减载直至减至零位。利用螺杆压缩机对湿行程不敏感的优点,慢慢将回气管路中的液体排到油分中。之后打开吸气截止阀,

缓慢增载,直至压缩机投入正常工作。发生潮车时,应注意观察并调整油压。为防止油温过低,可开启油加热设备或关小油冷却水阀。

12、什么原因会引起排气压力超高,如何排除?

答:(1)系统及高压部分混合气体较多会引起排气压力超高。应放空气。氨系统中,为减少氨气对大气的污染,一般采用空气分离器排放系统中的不凝性气体。

小型的氟系统,可通过冷凝器上的放空气阀直接进行排放空气。微启放空气阀进行放空气,当排除的气体呈白烟状、表明有较多氟利昂放出,应关闭阀门结束放空操作。

(2)冷凝器换热管的水侧结垢或积有杂物。应打开冷凝器两侧水盖,进行检查、并清理(用高压水枪冲洗、用刷子或布条往返擦拭、请专业公司清洗)。

(3)冷凝器积液过多、积油过多。检查冷凝器出液阀和平衡管阀门是否脱落。放出过多的制冷剂和积存的冷冻机油。

(4)冷凝器端盖分程垫片损坏,导致冷却水短路循环。应打开冷凝器两侧水盖,清楚分程垫部位的锈污,更换胶垫。

(5)冷却水进出水温度超过设计要求。清理冷却塔污物、检查分水器是否脱落倾斜、进水口是否有异物堵塞。

(6)冷却水流量不足。表现为冷却水进出水温差超过要求。检查:水泵机械磨损是否过大;水泵内是否有异物堵塞;水阀、

止回发、过滤网是否异常;水泵扬程是否符合要求;水管路走向及规格是否合理。

13、压缩机启动不起来的原因和处理办法

答:(1)电器故障;检查并修理。

(2)压力继电器或油压继电器失灵;检查压力继电器和油压继电器的连锁点并调整。

(3)曲轴箱压力或中间油压力过高;检修排气阀片或降低曲轴箱及中间压力。

(4)(活塞机)卸载机构失灵;检查并修理。

14、活塞机气缸内有敲击声的原因和处理办法

答:(1)运转时活塞撞击排气阀;将有杂音的气缸盖打开、增加活塞与内阀座之间间隙。

(2)气阀螺栓松动;旋紧气阀螺栓。

(3)阀片损坏断裂掉入汽缸,活塞销与连杆小头间隙过大,活塞与汽缸间隙过大;拆缸后检查,调整修理。

(4)假盖弹簧变形,弹力不够;加垫增加弹簧力或更换。

(5)制冷剂液体进入汽缸造成液击;将吸气截止阀关小、供液节流阀关小或暂时关闭,排除液体。

15、活塞机曲轴箱内有敲击声的原因和处理办法

答:(1)连杆大头轴瓦与曲柄销间隙过大;检查调整其间隙或跟换。

(2)主轴颈与主轴承间隙过大;检查调整间隙。

(3)飞轮与轴或键配合松弛;检查调整间隙,修理。

(4)连杆螺栓开口销断裂、连杆螺母松动;旋紧连杆螺母,用开口销锁紧。

16、活塞式压缩机启动后无油压得原因和处理办法?

答:(1)油泵传动零件失灵;拆开检修。

(2)油泵进油口堵塞;检查清除污垢。

(3)油压表失灵;更换油压表。

(4)油细滤器及轴封无油;开车前应向油细滤器及轴封处加油,防止开车时吸空。

17、活塞式压缩机油压过低的原因和处理办法

答:(1)吸油过滤网堵塞;拆下清理。

(2)油压调节阀失灵;检修或更换。

(3)油泵齿轮与泵盖间隙过大、磨损;检修或更换。

(4)曲轴箱油位过低;加油或从油分回油。

(5)各部位轴承磨损严重造成间隙过大或部分油路漏油;检查修理。

18、活塞式压缩机耗油量增大的原因和处理办法?

答:(1)制冷剂液体进入曲轴箱;将吸入截止阀和供液节流阀关小或暂时关闭(参考处理潮车的办法)。

(2)密封环、刮油环或气缸严重磨损或活塞环锁扣在一条线上;检查、调整,必要时更换严重磨损件。

(3)曲轴箱油面过高或排气温度过高;放出部分润滑油或采取措施降低排气温度。

19、轴封漏油或漏气的原因和处理办法

答:(1)轴封装配不良或密封面拉毛;检查调整,更换或研磨密封环。

(2)动、静环的‘O’型圈老化变形或松紧度不合适;更换密封橡胶圈。

(3)油中液体制冷剂含量多;提高油温或排放制冷剂。

(4)活塞式压缩机曲轴箱压力过高;降低曲轴箱压力。20、活塞式压缩机卸载装置机构失灵的原因和处理办法

答:(1)油压不够;调节油压,使油压比吸气压力高0.12~0.2Mpa。(2)油管堵塞;拆开清洗。

(3)油缸内污物卡死;拆开清洗。

(4)油分配阀装配不当,拉杆或转动环装配不正确、转动环卡住;拆开检修。

21、压缩机吸气过热度(吸气温度高于蒸发温度)过大的原因和处理办法?

答:(1)制冷系统内制冷剂不足;补充制冷剂。

(2)蒸发器内制冷剂不足;开大节流阀、增加供液。

(3)制冷系统吸气管路保温隔热不好;检查修理。

(4)制冷剂中含水量超标;检查制冷剂含水量。

(5)节流阀开度小,供液量小;开大节流阀、加大供液量。

22、活塞式压缩机排气温度偏高的原因和处理办法

答:(1)吸入气体温度过高;调整吸气过热度。

(2)排气阀片破裂;打开气缸盖、检查和更换排气阀片。

(3)安全阀漏气;检查安全阀、调节修理。

(4)活塞环漏气;检查活塞环、调节修理。

(5)汽缸套垫片破裂、漏气;检查更换。

(6)活塞上死点间隙过大;检查、调整上死点间隙。

(7)气缸盖冷却能力不足;检查水量和水温、进行调节。

(8)压缩机压缩比过大;检测蒸发压力和冷凝压力。

23、压缩机吸入压力太低的原因和处理办法

答:(1)供液节流阀或吸气过滤网阻塞(脏堵或冰堵);拆卸检查并清洗。

(2)系统内制冷剂不足;补充制冷剂。

(3)蒸发器内制冷剂不足;开大节流阀、增加供液。

(4)系统内、蒸发器中冷冻机油太多;找出系统内积油的部位、排放出积油。

(5)热负荷小;调节压缩机能级、适当的进行卸载。

24、螺杆机组发生不正常振动的原因和处理办法

答:(1)机组地脚螺栓未紧固或松动;旋紧地脚螺栓。

(2)压缩机轴和电动机轴错位或不同心;重新找正。

(3)管路振动引起机组振动加剧;加支撑点或改变支撑点。

(4)压缩机吸入过多的油或制冷剂液体;停机,盘车使液体排除压缩机。

(5)滑阀不能停在所要求的位置,而是在那里振动;检查油活塞、四通阀或增减载电磁阀是否泄漏并修理。

(6)吸气腔真空度过高;开启吸气截止阀、检查吸气过滤器是否堵塞。

25、螺杆机组制冷能力不足的原因和处理办法

答:(1)滑阀的位置不合适或其他故障(滑阀不能靠上固定端);检查指示器或角位移动传感器的位置,检修滑阀。

(2)吸气过滤器堵塞,吸气压力损失过大、使吸气压力下降,容积效率降低;拆下吸气过滤网并清洗。

(3)机器发生不正常磨损,造成间隙过大;检查调整或更换零件。

(4)吸气管路阻力损失过大、吸气压力比蒸发压力低太多;检查吸气截止阀和吸气止回阀,发现问题进行修理。

(5)高低压系统间泄漏;检查开车、停车旁通阀及回油阀,发现问题进行修理。

(6)喷油量不足,不能实现密封作用;检查油路、油泵、油过滤器,提高喷油量。

(7)排气压力远高于冷凝压力,容积效率下降;检查排气系统管路及阀门,清除排气系统的阻力。入系统渗入空气应予排放。

26、螺杆机组在运转中出现不正常响声的原因和处理办法

答:(1)转子齿槽内有杂物;检修转子及吸气过滤器。

(2)止推轴承损坏;更换止推轴承。

(3)主轴承磨损,转子与机体摩擦;检修,更换主轴承。

(4)滑阀偏斜;检修滑阀导向块及导向柱。

(5)运动部件链接处松动;拆开机器检修,加强放松措施。

27、排气温度或油温度过高的原意和处理办法

答:(1)压缩比过大;检测吸、排气压力,降压比。

(2)水冷油冷却器冷却效果下降;清洗油冷却器,降低水温或加大水量。

(3)液氨油冷却器供液不足;分析原因、增加供液量。

(4)吸入严重过热的蒸汽;增加供液量,加强吸气管路保温,检查旁通阀是否泄漏。

(5)喷油量不足;检查、分析原因,增加喷油量。

(6)系统渗入空气;应予排放,并检查空气渗入的原因,进行维修。

28、(螺杆机)排气温度或油温下降的原因和处理办法

答:(1)吸入湿蒸汽或液体制冷剂;减小向蒸发系统的供液量。

(2)连续无负荷运转;检查滑阀。

(3)排气压力异常低;减小供水量或减少冷凝器投入台数。

29、(螺杆机)滑阀动作不灵活或不动作的原意和处理办法

答:(1)四通换向阀或电磁阀动作不灵活;检查四通换向阀或电

磁阀线圈、接线。

(2)油管路系统有堵塞;检修。

(3)油活塞卡主或漏油;检修油活塞或更换密封圈。

(4)油压过低;检修及调整油压。

(5)滑阀导向键卡主;检修。

30、螺杆压缩机机体温度过高的原因和处理办法

答:(1)运动部件油不正常磨损;检修压缩机及更换损坏的零件。(2)吸气严重过热;降低吸气过热度。

(3)旁通管路泄漏;检查开车、停车旁通阀是否泄漏。(4)压缩比过大;检测吸、排气压力,降压比。

31、压缩机及油泵轴封泄漏的原因和处理办法

答:(1)轴封供油不足造成密封环损伤;检修、检查油路、调整油压。

(2)‘O’型圈变形或损伤;更换。

(3)装配不良;拆检,修复。

(4)动、静环接触不严密;拆下重新研磨。

(5)油有杂质磨损密封面、油中制冷剂液体过多;检查精油过滤器、保证供油温度。

32、油压过低的原因和处理办法

答:(1)油压调节阀调节不当;重新调节油压调节阀。

(2)压缩机内部泄油量大;检查并修理。

(3)油温过高;检查油冷却器,排除影响传热能力的因素。

(4)油质低劣、油量不足;换油、加油。

(5)油泵磨损故障;检修。

(6)油粗、精过滤器脏堵;清洗过滤芯。

(7)油中含有较多的制冷剂;停机,加热油。

33、压缩机耗油量增大的原因和处理办法

答:(1)油分离器分油效率下降;检修油分离器。

(2)油分离器内积油过多,油位过高;放油及控制油位。

(3)排气温度过高,油分离器效率下降;加强油冷却,降低排气温度。

(4)油压过高、喷油量过多、压缩机回液;调整油压或检修压缩机、处理压缩机回液。

(5)回油管路堵塞;检修。

34、油分离器油面上升的原因和处理办法

答:(1)系统内的油回到压缩机;放出过多的油。

(2)过多的制冷剂进入冷冻机油内;提高油温,加速溶入油内制冷剂的蒸发。

(3)油分离器回油管路堵塞;检修。

(4)立式油分离器液面计有冷凝下来的制冷剂液体;这时液位高度可能是不真实的,应估计实际油位高度。

35、螺杆式压缩机停机时压缩机反转的原因和处理方法

答:(1)吸、排气止回阀关闭不严;检修,消除阀板卡阻。

(2)防止倒转的旁通管路阀门未及时开启;检查,修理。

36、吸气温度过低的原因和处理办法

答:(1)蒸发器、气液分离器或低压循环桶内制冷剂过多;调节供液阀,停止或减少供液量,甚至可以将过多的制冷剂排至排液桶。

(2)蒸发器换热效率降低;清洗蒸发器或放油。

37、制冷设备安全保护值是如何规定的

答:制冷设备安全保护值按产品使用说明书的规定。LG系列螺杆制冷压缩机的安全保护值如下参考:

(1)喷油温度高保护:65℃(停机),此值可修改。

(2)吸气压力低保护:-0.03Mpa(停机)。

(3)排气压力高保护:1.57Mpa(停机)。

(4)精油滤器压差高保护:0.1Mpa(停机)。

(5)主电机过载保护(保护值按所配电机要求);

(6)油压与排气压力差低保护:0.1Mpa(停机)。

(7)油泵过载保护(保护值按所配电机要求);

(8)冷水机组、盐水机组、乙二醇机组出水温度低保护,蒸发器、冷凝器断水保护。

(9)冷凝器、贮液器、油器分离器、集油器安全阀开启压力:1.85Mpa;满液式蒸发器、气液分离器、低压循环

贮液桶、中间冷却器、经济器安全阀开启压力

1.25Mpa.

38、系统的真空实验是如何规定的

答:(1)系统作真空实验的目的是:检查系统在真空下的密封性,同时为充入制冷剂、冷冻机油做准备。将系统抽至5.33kpa(40mm 汞柱),保持24小时,压力回升应不超过0.67kpa(5mm汞柱)。

40、如何安排活塞式制冷压缩机的大、中、小修(参考)

(1)大修的周期是多少?

答:每运行8000小时左右进行一次大修。

(2)大修的内容是什么?

答:检查、清洗零部件,测量零部件的磨损程度:如:气缸、活塞、活塞环、曲轴、轴承、连杆、吸排气阀、油泵等。磨损轻微的可修整使用,磨损严重的应更换。检查安全阀和各种仪表(应由有资格的部门进行)。清洗冷冻机油系统、制冷系统、水系统的过滤器等。

(3)中修的周期是多少?

答:每运行3000~4000小时左右进行一次中修。

(4)中修的内容是什么?

答:除小修项目外,应检查和校对气缸与活塞间隙、活塞环锁扣间隙、连杆大小头瓦与曲柄销间隙、主轴承与主轴颈间隙、气阀与活塞间的余隙等。检查活塞销、气缸、曲轴等零部件磨损程度。检查润滑系统。检查连轴器、地脚螺栓是否松动。

(5)小修的周期是多少?

答:在中修之后,每运行1000~1200小时左右进行一次小修。

(6)小修的内容是什么?

答:清洗冷却水泵;检查活塞、气环、油环及吸排气阀,更换损坏的阀片和气阀弹簧等;检查连杆大小头轴瓦,清洗曲轴箱、油过滤网及吸气过滤器等;更换冷冻机油;检查电机与曲轴的同轴度。

41、如何安排螺杆式制冷压缩机的大、中、小修(参考)

螺杆压缩机组的检修期限和许多因素有关,一下资料供参考。

答: (1)螺杆压缩机的电动机:拆卸、检修及换件、及轴承加油,期限2年,参看电动机说明书。

(2)联轴器:检查压缩机与电机的同轴度(检查弹性传动片是否损坏或橡胶柱销是否磨损)期限3-6个月。

(3)油分离器:清洗内部,期限2年

(4)油冷却器:清除水垢(水冷)、油垢,期限半年;视水质及污垢情况而定。

(5)油泵:试漏检修,期限1年。

(6)油过滤器(包括粗油过滤器)、吸气过滤器:清洗,期限半年。首次开车100-150小时应清洗。

(7)油压调节阀:调节能力检查,期限1年。

(8)滑阀:动作检查,期限3-6个月。

(9)安全阀、压力表、温度计:校验,期限1年。

(10)止回阀、吸排气截止阀、压力表阀:检修,期限2年。

(11)压力继电器、温度继电器:校验,期限半年左右。参

看说明书。

(12)电气设备:动作检查,期限3个月左右。参看说明书。

(13)自动保护及自动控制系统:期限3个月左右。

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

数据中心制冷系统发展趋势

数据中心制冷系统发展趋势 数据中心制冷设备是为数据中心环境、数据中心主设备服务的、是依托于数据中心设备、功能而存在的,所以从根本上讲,我们看数据中心制冷系统的发展趋势,应该结合数据中心本身的发展来看,比如应用的行业、规模、主设备等等因素的变化都可能会导致数据中心制冷设备变化,甚至国内外标准的升级、国家区域政策的变化也对数据中心制冷的形态产生直接或间接的影响。 一、2000年左右数据中心行业发展初期,web1.0时代 1、数据中心特点 (1)计算机、互联网尚未普及,数据中心概念尚未建立; (2)小型计算机房、通信机房,设备少、面积小、单位发热低; (3)相关标准刚刚建立,多为借鉴国外标准,实际应用经验少; (4)对数据中心理解较少,主要解决安全性问题。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)基本功能实现,温湿度、洁净度。 3、制冷方案:以单元式风冷直膨设备为主 4、系统特点

(1)单元式分体机组,室外机占用空间; (2)单机冷量小,通常不超过100kW; (3)安装、运维简单; (4)自带加除湿功能; (5)能效受限,cop2.5左右; (6)室外机场地受限,占地较多,不适合高层写字楼。 二、2000年-2008年,数据中心行业快速成长期,进入web2.0时代 1、数据中心特点 (1)信息化建设加速,数据服务业务增加,机房数量增多、行业增多; (2)中大型机房开始出现,计算机房、通信机房开始转变为数据机房; (3)IT设备、服务器单位功耗增加、密度增加,对电、冷、空间、环境要求提升; (4)行业积累了一定经验,开始针对性定制或升级相关技术标准,规范更细致; (5)机房建设、运营更加专业化、标准化。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)能适应不同机房特点、方案灵活; (3)设备功能提升,如群组功能、智能运行功能等;

数据中心制冷技术的应用及发展V2 1

数据中心制冷技术的应用及发展 摘要:本文简要回顾了数据中心制冷技术的发展历程,列举并分析了数据中心发展各个时期主流的制冷技术,例如:风冷直膨式系统、水冷系统、水侧自然冷却系统及风侧自然冷却系统等。同时,分析了国内外数据中心制冷技术的应用差别及未来数据中心制冷技术的发展趋势。 关键词:数据中心;制冷;能效;机房;服务器 Abstract This paper briefly reviews the development of data center cooling technology, enumerates and analyzes the cooling technologies in data center development period. The enumerated technologies includes direct expansion air-conditioning system, water side cooling system, water side free cooling system and air side free cooling system, etc. At the same time, the paper analyzes the difference of data center cooling technology application between the domestic and overseas as well as the tendency of data center cooling technology in the future. Key words data center; cooling; efficiency; computer room; server 1前言 随着云计算为核心的第四次信息技术革命的迅猛发展,信息资源已成为与能源和材料并列的人类三大要素之一。作为信息资源集散的数据中心正在发展成为一个具有战略意义的新兴产业,成为新一代信息产业的重要组成部分和未来3-5 年全球角逐的焦点。数据中心不仅是抢占云计算时代话语权的保证,同时也是保障信息安全可控和可管的关键所在,数据中心发展政策和布局已上升到国家战略层面。 数据中心是一整套复杂的设施。它不仅仅包括计算机系统和其它与之配套的设备(例如通信和存储系统),还包含配电系统、制冷系统、消防系统、监控系统等多种基础设施系统。其中,制冷系统在数据中心是耗电大户,约占整个数据中心能耗的30~45%。降低制冷系统的能耗是提高数据中心能源利用效率的最直接和最有效措施。制冷系统也随着数据中心的需求变化和能效要求而不断发展。下文简要回顾和分析了数据中心发展各个时期的制冷技术应用,并展望了未来数据中心的发展方向。 2风冷直膨式系统及主要送风方式 1994年4月,NCFC(中关村教育与科研示范网络)率先与美国NSFNET直接互联,实现了中国与Internet全功能网络连接,标志着我国最早的国际互联网络的诞生。

数据中心空调制冷量的计算

办公场所空调制冷量怎么计算 办公室空调与面积要怎么匹配,会议室空调又怎么匹配,要怎么计算? 一冷量单位 〉千瓦(kw)—国际单位制,把制冷量统一到功率相同单位,是现在制冷界努力的方向 〉大卡(kcal/h)一习惯使用单位,与kw的换算关系为 1kcal/h=1.163w 1w=0.86kcal/h 1万大卡=11.6千瓦 〉冷吨(RT)----1吨0摄氏度的冰在24小时内变成0摄氏度水所吸收的热量。 1冷吨=3.517kw 〉匹(HP)---又称马力、匹马力,即表示输入功率,也常表示制冷量。表示功率时 1HP=0.735KW 〉表示制冷量时,实际含义为消耗1HP功率所产生的制冷量 1HP - - -2.2KW 二制冷量简便计算方法 精密空调的负荷一般要根据工艺房间的实际余热余温以及状态的变化进行准确计算,但在条件不允许时也可计算,下面介绍两种简便的计算方法: 方法一:功率及面积法 Qt=Q1+Q2 Qt总制冷量(kw) Q1室内设备负荷(=设备功率X0.8) Q2环境热负荷(=0.18KW/m2X机房面积)

方法二:面积法(当只知道面积时) Qt=S x p Qt总制冷量(kw) S 机房面积(m2) P 冷量估算指标 三精密空调场所的冷负荷估算指标 电信交换机、移动基站(350-450W/m2) 金融机房(500-600W/m2) 数据中心(600-800W/m2) 计算机房、计费中心、控制中心、培训中心(350-450W/m2) 电子产品及仪表车间、精密加工车间(300-350W/m2) 保准检测室、校准中心(250-300W/m2) Ups 和电池室、动力机房(300-500W/m2) 医院和检测室、生活培养室、洁净室、实验室(200-250W/m2) 仓储室(博物馆、图书馆、档案馆、烟草、食品)(150-200W/m2) 四根据不同的情况确认制冷量 情况一(没有对机房设备等情况考察之下) 数据室估算:在一个小型的金融机房中,数据设备室通常的面积小于50平方,在数据设备、机房的建筑热量没有确定下来之前,可以按照金融机房通用的估计方法进行机房空调制冷量的预估:500w~600w/m2 ,部分高容量机房达到800w/m2。例如数据室的面积为50 m2 ,则所需的制冷量约为:25kw。选用3

大型数据中心空调制冷系统的节能技术研究

大型数据中心空调制冷系统的节能技术研究 发表时间:2019-10-24T14:39:39.913Z 来源:《基层建设》2019年第22期作者:蒋广才[导读] 摘要:近年来,我国的暖通空调系统有了很大进展,大型数据中心空调制冷系统的构成复杂,使用时耗能大,以环保为核心的大趋势下,节能是各类系统优化的基本方向。 山东科灵节能装备股份有限公司山东潍坊 262100 摘要:近年来,我国的暖通空调系统有了很大进展,大型数据中心空调制冷系统的构成复杂,使用时耗能大,以环保为核心的大趋势下,节能是各类系统优化的基本方向。本文分析了大型数据中心空调制冷系统的节能技术应用,提出了促进系统综合性能的优化及强化的措施,仅供参考。 关键词:空调制冷系统;节能技术;节能要点引言 目前在我国暖通空调系统当中所应用的节能环保技术正在不断的发展和进步,在保证能源消耗不再增长的基础之上,可以使暖通空调系统具备除湿、制冷、制热等不同的功能,从而能够实现对二氧化碳排放量的有效控制,降低温室效应,提高能源的利用效率。 1、大型数据中心空调制冷系统的特点 大型数据中心具有三大基础资源:机房空调建设,空调制冷,电力供应,占地面积为几万平方米。为了保证三大基础资源平衡,同时达到较高的资源利用率,通过调整电力供应资源和制冷资源来平衡整体资源匹配程度。单栋数据中心能耗占成本的76%,建设成本中制冷成本占21%,所以对数据中心的制冷节能是必要的。维修与维保两个降低能耗的方式,可以提升全生命周期,可以按时的掌握设备的工况,能够迅速地检测设备故障,高度的管理性是数据中心不可或缺的必要因素。 2、影响空调制冷能耗的主要因素 产品的设计、选型及安装决定了制冷系统的工作效率,主要的影响因素有以下几点:第一,换热温差。一般而言,蒸发器内制冷剂蒸发的温度低于大气中的温度,才能将热能转给制冷剂吸走,并且保持压力平衡状态。第二,膨胀阀开启度。根据过热度进行定期检测,不断校准,使其过热度保持在合适的范围内。第三,制冷产品应用范围越来越广,且能耗巨大。随着社会的不断发展,制冷空调应用于企业、商场、学校、住宅等领域,耗能急剧增加。第四,选用高效能的压缩机及蒸发器冷凝器结构及换热面积的优化配置,高效换热材料的应用。第五,制冷系统安装工艺的改进提高等。第六,先进电气控制系统的应用等。 3、大型数据中心空调制冷系统的节能技术 3.1可用度分析 数据中心的主要应用目标是用于对组织运作的数据进行处理。这样的系统可以从软件企业购入,也可以由组织内部进行独立开发。一般情况下通用的系统包括了企业资源计划和客户关系管理系统。整个数据中心的服务倾向综合性服务。这样的系统一般由多个主机构成,各个主机的运行都是独立的,掌管单一的节点,包括数据库、应用服务器、文件服务器、中间件等等。此外数据中心也经常用于对非工作站点完成备份。这些备份通常与备份磁带共同使用。将本地服务器信息录入磁带。除此之外磁带的存放也易受环境的影响。规模较大的公司,可能会将备份的系统信息传递到非工作空间。并且借助数据中心完成回投。备份在经过加密之后,可以通过互联网被发送到另一个数据中心当中,得到妥善保存。为了达成受影响后恢复的目标,许多硬件供应商都提供了新的解决方案,以保证短时间内的可操作性。包括思科系统,美国太阳微系统公司的Sun微系统,IBM和惠普公司共同开发的系统,都是创新性的解决方案。在实际的系统应用过程中,因为可用度关乎空调系统的质量,因此冷却水泵、冷却塔及冷水机组的可用度等,都关系到厂家。在自然冷却的情况下,设备的群组串联方式相对来说有更强的可用性。 3.2可维护性比较 由于机房具有一定复杂性,随着业务的发展,管理任务必定会日益繁重。所以在机房的设计中,必须建立一套全面、完善的机房管理和监控系统。所选用的设备应具有智能化,可管理的功能,同时采用先进的管理监控系统设备及软件,实现先进的集中管理,从而迅速确定故障,提高运行性能、可靠性,简化机房管理人员的维护工作。 3.3可管理性与节能性的比较 可管理型的衡量应首先从冷热通道的控制去分析,因许多用户会使用塑料板去隔离冷热空气,进而确保冷却的效率得到提升。冷热通道控制这一手段的应用能够确保数据中心的冷却效率有百分之十五左右的提升。实际转换成电力消耗的数值,在服务器数量五百,每度电费五毛的前提下,每年约省电费的数额为七万两千元。但是依照当前的运行成本及系统概况来看,因涉及许多环节的操作,所以这样的处理需要面对较大风险。近年来随着冷水机组制冷效率的不断提升,制冷过程当中水泵的耗能占比也更高,甚至能够达到整个系统能耗的百分之十五到百分之三十五,在设备群组模式下,调节水流量与扬程的方式更多,能够达成多台水泵的同步变频,并且对变频水泵的台数进行控制。在多冷源并联模式下是无法对台数进行控制的,所以设备群组方式的优势更为明确。 4、关于暖通空调系统的空调制冷管道的安装管理技术与安全对策 4.1制冷管道的敷设方式 制冷系统的排气管要设置在吸气管上端,两管设置在同一水平支架上,同时两者要确保在一定的距离,以确保避免出现吸气管道与支架直接接触产生相对应的冷桥问题。同时也要着重根据相关情况,把一个油浸过的木块放到管道之间的空隙缝内。敷设制冷剂的液体与气体管道在应用方面要与既定的设计要求相符合,用顺流三通接口。针对制冷管道弯道的设计,要用冷报弯设计,因为这样可以很大程度上有些要减少管内的秽物。针对地下敷设进行划分可以划分为三种情况,分别是:通行地沟敷设、半通行地沟敷设以及不通行地沟敷设。大多数时候都要进行通行地沟敷设的地沟的设置,冷热管要敷设在同一个通行地沟内部,低温管道的敷设要与其他管道有足够的距离,同时要设置在其他管道的下边。半通行地沟高度要稍微低于通行地沟,高温管与低温管不可以在同一个地沟内敷设。 4.2高效能的压缩机换热技术 制冷空调的核心技术是压缩机,提高压缩机的工作效率,不断改进结构,控制能耗,将传统的活塞式、旋转式压缩机逐渐用涡旋式压缩机,高效螺杆式压缩机及磁悬浮离心式压缩机取代并采用变频控制。选取优质的材料,使得压缩机传热效果增强,增加换热接触面积,提高换热性能,使热量及时排放有效地增加效绩。

绿色数据中心空调系统设计方案

绿色数据中心空调系统设计方案 北京中普瑞讯信息技术有限公司(以下简称中普瑞讯),是成立于北京中关村科技园区的一家高新技术企业,汇集了多名在硅谷工作过的专家,率先将机房制冷先进的氟泵热管空调系统引进到中国。 氟泵热管空调系统技术方案适用于各种IDC机房,通信机房核心网设备,核心机房PI路由器等大功率机架;中普瑞讯对原有的产品做了优化和改良,提高节能效率的同时大大降低成本。 中普瑞讯目前拥有实用专有技术4项、发明专有技术2项;北京市高新技术企业;合肥通用所、泰尔实验室检测报告;中国移动“绿色行动计划”节能创新合作伙伴,拥有国家高新企业资质。 中普瑞讯的氟泵热管空调系统技术融合了结构简单、安装维护便捷、高效安全、不受机房限制等诸多优点,目前已在多个电信机房得到实地应用,取得广大用户一致认可,并获得相关通信部门的多次嘉奖。 中普瑞讯的ZP-RAS氟泵热管背板空调系统专门用于解决IDC高热密度机房散热问题,降低机房PUE值,该系统为采用标准化设计的新型机房节能产品,由以下三部分组成。

第一部分,室内部分,ZP-RAS-BAG热管背板空调。 第二部分,室外部分,ZP-RAS-RDU制冷分配单元。 第三部分,数据机房环境与能效监控平台。 中普瑞讯的ZP-RAS氟泵热管背板空调体统工作原理:室外制冷分配单元(RDU)机组通过与系统冷凝器(风冷、水冷)完成热交换后,RDU通过氟泵将冷却后的液体冷媒送入机房热管背板空调(BGA)。 冷媒(氟利昂)在冷热温差作用下通过相变实现冷热交换,冷却服务器排风,将冷量送入机柜,同时冷媒受热汽化,把热量带到RDU,由室外制冷分配单元(RDU)与冷凝器换热冷却,完成制冷循环。 1.室外制冷分配单元(RDU)分为风冷型和水冷型两种。制冷分配单元可以灵活选择安装在室内或室外。室外RDU可以充分利用自然冷源自动切换工作模式,当室外温度低于一定温度时,可以利用氟泵制冷,这时压缩机不运行,充分利用自然免费冷源制冷,降低系统能耗,同时提高压缩机使用寿命。 北方地区以北京为例每年可利用自然冷源制冷的时间占全年一半以上左右。从而大大降低了机房整体PUE值,机房PUE值可控制在较低的数值。 2.热管背板空调(ZP-RAS-BGA)是一种新型空调末端系统,是利用分离式热管原理将空调室内机设计成机柜背板模

数据中心机房制冷空调系统运维技术考核题目答案参考

数据中心(机房)制冷空调系统运维技术考核题目答案参考 类数据机房温湿度范围?单点温湿度波动范围? A类机房温湿度要求:23±1℃,40--55% ;单点温度波动小于5℃/h,湿度波动小于5%/h 参考:GB50174《电子信息系统机房设计规范》 2.空调回风参数:温度25℃,相对湿度50%;求露点温度? ℃参考:标准大气压湿空气焓湿图;此题关注会查空气状态点对应的露点温度和湿球温度 3.自然冷却模式、预冷模式、普通制冷模式的切换依据,对应的环境湿球温度值是多少? 湿球温度<10℃适合自然冷却模式,10--15℃之间适合预冷模式,>15℃适合普通制冷模式 参考:水冷自控系统供冷模式转换控制逻辑 4.机房空调送风距离多少米为宜?6-10m为宜 5.数据机房采用地板送风,风速范围多少m/s为宜? ( m/s最佳)参考:GB50174《电子信息系统机房设计规范》 6.数据机房新风正压要求数值? 机房与走廊;机房与室外参考:GB50174《电子信息系统机房设计规范》 7.数据机房新风量:人均参考值?每平米参考值?按机房换气次数每小时几次为宜? 按工作人员每人40m3/h;每平米25--30 m3/h;机房换气次数次/h(人员进出的机房取4次/h) 8.计算:900个标准机柜(13A)需要多大面积的机房合适?如选用艾默生冷水型机房空调P3150G至少需要多少台?按4-5台以上备份1台的标准,最多需要多少台?需要多大冷量的冷水机组提供冷源?需要多大风量的新风空调提供机房正压? 每个机柜加上冷热通道,平均面积取;×900=2070㎡(可分成4个㎡模块间,每个模块225台机柜) 每平米可用制冷量不能小于+每平米维护结构热负荷=每平米冷量需求 总冷量需求:×2070=3312KW 查艾默生冷水型空调样本:P3150G标准冷量为;需留有20%的预留(使用系数取) 艾默生P3150G冷水型空调单机净冷量:×= ○标准需求台数:3312÷≈28台;冗余配置(4+1):28÷4=7台(需配备机7台);含备机需28+7=35台 ○IT设备功耗转换成热量系数(取计算);13A机柜功耗,转换为热量÷≈ 总热负荷:×900=3429KW,除以P3150G空调单机净冷量≈29台,按冗余配置(4+1),需配备机7台;含备机需29+7=36台 ○空调系统制冷量取IT负载的倍;IT总负载:×900=2574KW;空调系统总制冷量:2574×= 除以P3150G空调单机净冷量≈28台,按冗余配置(4+1),需配备机7台;含备机需28+7=35台 ●需要冷量为3429KW(约1000RT)的冷水机组(离心式)1台提供冷源 新风量每平米25--30 m3/h(取30 m3/h);总新风需求30×2070=62100 m3/h,建议规划4个模块间单独提供新风62100÷4=15525 m3/h,需要新风量15525 m3/h的组合空调4台 9.制冷设备能效比EER是如何计算的? EER即制冷设备的制冷性能系数,也称能效比,表示制冷设备的单位功率制冷量。EER值越高,表示制冷设备中蒸发吸收的热量较多,压缩机耗电较少。数学计算公式:EER=制冷量(KW)/制冷消耗功率(KW) 单位:W/W或KW/h/W 10.冷站(动力站)COP是如何计算的? 冷水机组实际制冷量和配套设备(压缩机-马达+冷冻水循环泵+冷却水循环泵+冷却塔风机-马达)实际输入功率之比 11.数据机房PUE是如何计算的?绿色节能机房PUE标准? PUE是评价数据中心能源效率的指标,是数据中心消耗的所有能源(电能)与IT负载使用的能源(电能)之比PUE=数据中心总设备能耗/IT设备能耗;基准是2,越接近1表明能效水平越好 绿色节能机房PUE标准:以下 12.接题目8,匹配适合该冷水机组的冷却塔参数(流量)?冷却塔设在楼顶距冷站(动力站)20米,匹配适合该冷水机组的冷却循环泵参数(扬程和流量)?匹配适合该冷水机组和机房空调的冷冻循环泵参数(扬程和流量)(注:水泵出口至管网最高点垂直高度15米)? 水量需求:冷凝器()/RT 蒸发器(3/h)/RT

英维克:数据中心高效制冷整体解决方案

龙源期刊网 https://www.360docs.net/doc/c86700049.html, 英维克:数据中心高效制冷整体解决方案 作者: 来源:《中国计算机报》2013年第15期 深圳市英维克科技有限公司(以下简称英维克)作为专注于机房与设备环境控制技术的国家级高新技术企业,掌握着世界领先的制冷系统核心技术、控制技术、结构设计技术,拥有多项专利。作为中国通信行业标准化协会全权会员单位,英维克参与了多个数据中心空调标准的起草和修订。作为中国数据中心工作组《数据中心空调系统应用技术白皮书》的主要起草人单位,英维克对数据中心制冷及节能方案,体现出深刻的理解,在数据中心空调技术的发展应用领域,展现出了强大的实力。英维克数据中心高效制冷方案和产品,获选数据中心“2012年度优秀解决方案奖”及通信行业“2012年度节能卫士奖”。针对不同的应用环境与需求,英维克为数据中心进行科学的制冷规划,并推出高效制冷整体解决方案。 1. 大型、中型数据中心高效制冷与自然冷却系统:对于新建数据中心,应用集成iFreecooling间接自然冷却技术的CyberMate(双循环)高能效空调系统,冬季可停止压缩机运行,通过制冷剂泵实现高效安全自然冷却。机组设计为高效涡旋压缩机、EC风机、电子膨胀阀、高效制冷剂泵等高效高可靠性器件,充分实现了制冷系统的高可靠性、高节能性。该解决方案和产品已经被中国联通、中国电信等客户广泛应用并推广,与常规机房专用空调系统比较,北方地区全年节能率超过40%,可充分降低数据中心全年PUE值。 对于在用数据中心,可通过英维克iFreecooling自适应多联(双循环)空调系统进行节能改造,通过制冷剂泵自适应多联循环,利用制冷剂相态变化,在低温季节充分利用自然冷源,根据室外温度条件以及室内热负荷情况自动判断启动或停止空调系统的压缩机运行以及室外冷凝器运行,通过iFreecooling系统的制冷剂的相态变化,实现高效自然冷却。iFreecooling启动时,能够减少约96%的压缩机能耗、超过25%的冷凝器能耗,整机节能率超过70%。该解决 方案和产品已经被中国移动、中国石油等客户广泛应用和推广,实现空调系统全年节能35%以上,机房节能15%以上。 2. 高热密度数据中心、模块化及集装箱数据中心的高效制冷与自然冷却系统:适合设计或部分设计有高功率机柜的,对PUE有较高要求的数据中心、模块化数据中心、集装箱数据中心。可应用靠近热源式冷却的XRow高效冷却方案,提供多种定制化设计。英维克的XRow列间空调,具备多种送风方式,可与封闭冷热通道配合设计,获得更佳效果。冷却方式包括:风冷、冷冻水、制冷剂循环等多种方式,结合iFreecooling 间接冷却技术,可实现高效自然冷却。该解决方案和产品中国移动、中国石化等客户广泛应用和推广,实现空调系统节能超过30%。 3. XRack微模块服务器机柜高效制冷系统:高效机柜制冷解决方案,包括户内微模块机柜解决方案与户外微模块机柜解决方案,在服务器机柜内实现了高效冷却,并集成模块化UPS、

提升数据中心制冷能效

提升数据中心制冷能效 数据中心节能降耗应从两个方面入手,第一是减少数据中心IT设备对电能的需求,降低其能耗和发热量,第二是提高供电和制冷系统的效率,减少不必要的浪费。 数据中心机房单位面积能耗由10年前的400~500W/m2迅速升高到目前的800~1000W/m2,而且还呈现不断上升的趋势。尤其是目前高密度IDC机房设备集成度的提高,已经使单机架的功率大幅度提升。台式服务器机架功率为1.5kW,模块式服务器机架功率为10kW左右,现在最新的刀片式服务器机架功率高达30kW。高耗电,必然产生了高发热,因此IDC机房的空调需求量也大幅度增加。 1.针对数据中心机房IT设备用电功耗及机房散热要求。应采用相对应的机房制冷系统解决方案和机房散热方案: 1)当机房机柜功耗在3~6kW时,建议采用风冷或水冷空调系统,采用面对面,背对背的冷热通道分隔的机房气流组织进行规划和建设。在当地气候允许的条件下,可考虑能效比较高的水冷空调系统和自然风冷冷却方案。当机房局部产生热岛时,可使用有气流导向的变风量送风地板,增强机房热岛区的局部散热。 2)当机房机柜功耗在8~15kW时,建议采用封闭冷通道气流组织进行规划,采用风冷或者水冷空调系统。在机房局部功率产生热岛时,可使用EC风机与送风地板,增强机房热岛区的局部散热;在机房局部产生高功率热岛时,使用机房行间空调封闭局部进行内部增强快速散热。 3)当机房机柜功耗在15~25kW时,建议采用机房行间空调,机柜封闭增强机房

热岛区的局部散热,有条件可采用冷板式机柜,柜内热空气与冷却水在柜内进行热交换的冷却技术。 4)当机房功率大于25kW时,考虑更加高效的散热冷却技术,采用液冷技术,高密度服务器高度热品质冷却系统。 从以上方案,我们可以看出,对于传统的低功率机柜,利用风冷空调制冷技术即可满足其运行条件。当功率大于10kW时,需采用封闭通道并采用行间空调制冷。当功率大于15kW时,需采用冷板式制冷技术满足机柜运行需要。当功率大于25kW时,考虑更加散热高效的浸没式液冷技术。 云数据中心发展趋势为大规模、高密度机房,传统的空调制冷方式将很难满足未来的数据中心运行要求。如何更加高效节能,我们对比一下上述液冷技术路线与传统技术性能PUE。2. 不同冷却技术能耗对比对比传统空气冷却、冷板式、浸没式液冷,不考虑外界环境因素变化,三种技术对比如下:

常见数据中心冷却系统

常见数据中心冷却系统 由于数据中心的发热量很大且要求基本恒温恒湿永远连续运行,因此能适合其使用的空调系统要求可靠性高(一般设计都有冗余备机)、制冷量大、温差小和风量大。下面,我们简要介绍下适合数据中心部署的空调冷却系统。 1、风冷精密空调 这是数据中心最传统的制冷解决方案,单机制冷能力一般都在50到200KW之间,一个数据机房一般都是安装多台才能满足需要。下面是风冷精密空调的工作原理图。 风冷精密空调工作原理图 风冷精密空调一般采用涡旋压缩机制冷(一般安装在精密空调内),能效比相对比较低,在北京地区一般在1.5到3之间(夏天低,冬天高)。风冷精密空调在大型数据中心中使用存在以下不足: ●安装困难 ●在夏天室外温度很高时,制冷能力严重下降甚至保护停机

●对于传统多层电信机房,容易形成严重的热岛效应 ●需要开启加湿除湿功能,消耗大量能源 2、离心式水冷空调系统 这是目前新一代大型数据中心的首选方案,其特点是制冷量大并且整个系统的能效比高(一般能效比在3到6之间)。离心式制冷压缩机的构造和工作原理与离心式鼓风机极为相似。但它的工作原理与活塞式压缩机有根本的区别,它不是利用汽缸容积减小的方式来提高气体的压力,而是依靠动能的变化来提高气体压力。 离心式水冷空调系统

水冷冷冻机组的工作原理 离心式冷冻机组在小负荷时(一般为满负荷的20%以下)容易发生喘振,不能正常运转。因此,在数据中心水冷空调系统的设计中一般先安装一台小型的螺杆式水冷机组或风冷水冷机组作为过渡。大型数据中心的水冷空调系统一般由以下五部分组成,示意图如下。 水冷空调系统示意图 免费冷却技术指全部或部分使用自然界的免费冷源进行制冷从而减少压缩机或冷冻机消耗的能量。目前常用的免费冷源主要是冬季或春秋季的室外空气。因此,如果可能的话,数据中心的选址应该在天气比较寒冷或低温时间比较长的地区。在中国,北方地区都是非常适合采用免费制冷技术。

高热密度数据中心制冷解决方案设计

高热密高热密度度数据中心数据中心制冷制冷制冷解决方案解决方案解决方案设计设计设计 艾默生网络能源有限公司艾默生网络能源有限公司 严瀚严瀚严瀚 摘要 摘要:高热密度数据中心具有强大的虚拟化、集中化、云计算等功能,节地、节能、节省人工等优点,因而存在巨大的应用优势,但是目前其方案、设备的设计、选型还没有成熟的理论指导。本文就高热密度数据中心设备的选型从理论和工程经验两方面进行了剖析,指出了建设高热密度数据中心的具体方法和发展方向。 关键词关键词::高热密度高热密度 数据中心数据中心数据中心 制冷解决方案制冷解决方案制冷解决方案 风量风量风量 焓焓 紊流紊流紊流 雷诺数雷诺数雷诺数 行间级制冷行间级制冷行间级制冷 机柜级制冷机柜级制冷 芯片级制冷芯片级制冷芯片级制冷 艾默生艾默生艾默生 XD XD 系统系统 CRV CRV 系统系统 CoolTherm CoolTherm 水冷机柜水冷机柜 微热管微热管微热管 引子引子:随着云计算的发展,传统的低密度数据中心已经不能满足日益发展的需求,因此出现了超过8kW/Rack 的数据中心,我们一般将8kW/R 至30kW/R 之间的热密度机柜成为高热密度机柜,超过30kW/R 发热量的机柜称之为超高热密度机柜(图1)。 图1 高热密度机柜出风口红外图 一、 选择建设选择建设高热密度数据中心高热密度数据中心高热密度数据中心的的原因 1、在传统的低密度数据中心中,设备占地面积广大,往往达到几千甚至上万平方米,这在建筑成本日益升高的今天,无疑是一种巨大的浪费。而高热密度数据中心,由于提高了机柜的装机容量,使得同样功能的数据中心面积可缩小60%以上。比如传统2kW/R 的机柜,若提升到10kw/R ,则可实现80%的节地,其建筑成本的节省就是一笔非常大的收益。 2、由于传统的机房精密空调需要依靠房间中的空气作为传导冷量的媒介,因此若机房面积大,其相应需要冷却的空气质量非常大,而空气中的水蒸气相变吸收的潜冷量更加巨大,因此若能减少面积,相应的建筑热负荷需求也会显著下降,可实现非常大的节能收益。

大型数据中心节能技术

大型数据中心节能技术 目前就职于微软的数据中心最有影响的专家Christian Belady在2006年提出数据中心能 源利用率(PUE)的概念。如今,PUE已发展成为一个全球性的数据中心能耗标准。数据中 心的PUE的值等于数据中心总能耗与IT设备能耗的比值,比值越小,表示数据中心的能源 利用率越高,该数据中心越符合低碳、节能的标准。 目前国内一些小规模的传统数据中心,PUE值可能高达3左右,这意味着IT设备每消耗1瓦特电力,数据中心基础设施便需要消耗2瓦特电力。据网络上收集的相关信息,目前GDS在建的4个机房在与第三方设计单位签约时,都是按照PUE值等于 1.8的标准进行规划的。世纪互联近五年建设的水冷数据中心的PUE值在 1.5左右。鹏博士酒仙桥大型数据中 心的PUE 设计值不超过 1.5。根据收集相关网站信息,全球最最节能的5个数据中心分别是:■雅虎“鸡窝”式数据中心(PUE=1.08) 雅虎在纽约洛克波特的数据中心,位于纽约州北部不远的尼亚加拉大瀑布,每幢建筑看上去就像一个巨大的鸡窝,该建筑本身就是一个空气处理程序,整个建筑是为了更好的‘呼吸’,有一个很大的天窗和阻尼器来控制气流。 ■Facebook数据中心(PUE=1.15) Facebook的数据中心采用新的配电设计,免除了传统的数据中心不间断电源(UPS)和配电单元(PDUs),把数据中心的UPS和电池备份功能转移到机柜,每个服务器电力供应增加了 一个12伏的电池。同时Facebook也在使用新鲜空气进行自然冷却。 ■谷歌比利时数据中心(PUE=1.16) 谷歌比利时数据中心竟然没有空调!根据谷歌公司工程师的说法,比利时的气候几乎可 以全年支持免费的冷却,平均每年只有7天气温不符合免费冷却系统的要求。夏季布鲁塞尔最高气温达到66至71华氏度(19-22℃),然而谷歌数据中心的温度超过80华氏度(27℃)。 ■惠普英国温耶德数据中心(PUE=1.16) 惠普英国温耶德数据中心利用来自北海的凉爽的海风进行冷却。 ■微软都柏林数据中心(PUE=1.25) 微软爱尔兰都柏林数据中心,采用创新设计的“免费冷却”系统和热通道控制,使其 PUE值远低于微软其他数据中心的 1.6。 从上面可以看出,降低PUE最有效的措施是采用免费自然制冷措施和替代传统的UPS 系统。对于数据中心,其能耗一般由IT设备能 源消耗、UPS转化能源消耗、制冷系统能源消 耗、照明系统和新风系统的能源消耗以及门禁、 消防、闭路电视监控等弱电系统能源消耗五部 分组成。如果需要降低PUE的值,就需要从以 下四个方面采取措施。 ■采用转换效率高的UPS系统。目前,新 一代数据中心的设计基本采用新型的高频 (IGBT技术)UPS系统,电源转换效率和功率 因数都比传统的工频(可控硅技术)UPS系统

数据中心空调系统节能控制

数据中心空调系统节能控制 一、制冷机组台数控制 通过对负荷侧温差及流量的测量,控制系统可获悉总体的负荷需求,此时根据制冷机组的形式和特性,采用合理的台数组合,可使多台制冷机组的综合能效达到最佳。以变频离心式水冷机组为例,两方面因素对台数控制的逻辑存在影响。一是效率较高的工况分布于机组部分负荷的区间,二则为冷却水温的变化对机组特性曲线具有显著的影响。 如下图所示,运行一台机组的效率曲线与运行两台的曲线,相交汇处(黑色圆点)即为增减台数的最佳时机,同理可见两台增至三台的切换点。而根据变频离心机的特性,加机切换点通常低于额定输出的90%。同时,随着冷却水温度的降低,机组最佳能效的区间更加向部分负荷偏移,增减台数的时机(黑色圆点)也显著向左偏移, 加机切换点甚至低于70%负荷。 上述特性意味着,制冷机组的台数控制逻辑,若能够利用这两个因素动态地选择增减机组的时机,则可发挥出潜在的节能空间。当然,不同形式的机组,如风冷、定频、螺杆等,均具有各自的特性,或在系统中存在混合搭配的应用,此时自控系统应因地制宜的规划台数控制的逻辑,以提高设备效率,节约系统能耗。

冷水机组开启台数控制图 二、变频风扇及水泵的台数控制 具备变频风扇的冷却塔以及变频水泵,在数据中心冷源系统中应用广泛。在控制此类机电设备时,除了根据被控对象进行PID调速控制外,合理地增减台数,也存在一定的节能空间。控制系统应根据设备厂家提供的效率曲线,在逻辑中定义频率达低限后减少台数,达高限后增加台数。 三、低负荷运行初期的节能控制 数据中心的负荷源于数据业务的多少,通常在数据中心基础设施完工后,数据业务会在一定时间里逐渐增加。而在初期阶段,可能存在数据业务量较少的一段时间。在这个时期,制冷系统的空气侧,可以通过与机房模块或冷热通道对应的空调末端调整来满足,而冷源侧将面临整体负荷较小,运行1 1台制冷机仍易进入喘震区的问题。 在项目负荷低的初期,可以利用蓄冷罐来解决低负荷的问题,在控制和安全考虑周全后,有比较好的效果。从控制逻辑上,从1 1的主机备份关系,变为制冷机与蓄冷罐的备用关系。即当蓄冷罐蓄冷量充足时,由蓄冷罐承担负荷,至蓄冷罐剩余储能接近当前较小IT负荷所需的15或30分钟紧急供应 量时,将之视为系统负荷的一部分,另制冷机组支持IT负荷的同时为它冲冷,此时制冷机组能也工作在较高出力状态。更严重的情况,若当前IT负荷低至一台制冷主机的20%,

大型数据中心制冷系统的三个关键

大型数据中心制冷系统的三个关键 目前,随着大型数据中心高密度服务器与低密度混合模式的出现,由于服务器的密度不均衡,因而产生的热量也不均衡,传统数据中心的平均制冷方法已经很难满足需求。 据统计,目前85%以上的机房存在过度制冷问题,而供电中只有1/3用在IT 设备上,制冷费用则占到总供电的2/3 。因此,降低能耗、提高制冷效率是大型数据中心建设的关键所在。北京世纪互联工程技术服务有限公司(以下简称BANYANO)于2008年12月,就大型数据中心制冷系统建设的几个关键性问题,发布了技术白皮书。 制冷模式的转变:集中制冷到按需制冷 在以往的空调系统设计中,多采取集中制冷模式,将空调房间考虑成一个均匀空间,按现场最大需求量来考虑。这种模式忽视了空间各部分的需要,缺少考虑制冷效率、制冷成本的意识。目前随着科学技术的发展以及高密度大型数据中心的建设需求,人们逐渐认识到按需制冷的必要和集中制冷的弊端。 据BANYANO技术人员介绍,“按需制冷”就是按机房内各部分热源的即时需要,将冷媒送到最贴近热源的地方。它最大的特点是制冷方式的定量化和精准化,从“房间级”制冷转变为“机柜级”制冷,最后到“芯片级”制冷。例如,在高密度大型数据中心的建设规划中,BANYANO采用了以“精密制冷”为核心的机柜级解决方案。将英飞集成系统的In-row制冷单元放在高密度服务器机柜旁边,针对每个热点进行降温,让冷热空气直接在机柜和空调之间以最短的路径循环,从而有效提高制冷效率。根据设备发热量的高低配置相应数量的制冷单元,以此做到按需供冷定量分配。与房间级制冷相比,In-row制冷对冷气的利用率达到70%,并能够处理更高的热负载密度。 送风方式的设计:上送风VS下送风 数据中心内显热庞大,潜热微小的环境导致需要大风量的空调系统。为保证数据中心内不同位置的IT设备都能处于适宜的温度和湿度,正确设计数据中心的送风和回风的气流组织成为大型数据中心制冷系统建设的重要环节。 建设大型数据中心制冷系统的三个关键</p

绿色数据中心机房空调方案冷冻水下送风

第一部分:工程概况及建设原则与目标 一、工程概况 1、机房长、宽、高;净空高度、有无地板、地板高度;机房朝向、密封情况。 2、每个机房的设备类型、设备数量、设备功耗。 3、原有空调情况、送回风方式(改造项目)。 4、机房出现问题描述(改造项目)。 5、冷冻水空调系统状况描述:冷冻水供水温度:7℃,回水温度;12℃压力;100Kpa;管路:双路供水或单路供水等。 二、数据中心机房空调设计依据与标准 1、设计规范与参考依据 根据国家和国际的数据中心机房与空调的标准与规范: ●GB50174-2008《电子计算机机房设计规范》 ●GB/T2887–2000《电子计算机场地通用规范》 ●ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers, Inc.) TC9.9 ●TIA942标准(Telecommunications Infrastructure Standard for Data Centers) ●其他数据中心和暖通空调设计规范和文件 2、机房设计标准 数据中心机房和电力机房内有严格的温、湿度、噪音等要求,机房按国标GB2887-89《计算机场地安全要求》的规定: 1)、温度、湿度标准: 表2 温度、湿度标准 222 C 202 C 5C/h并不得结露 2)、噪音标准: 主机房区的噪声声压级小于68分贝

3)、正压密封要求 主机房内要维持正压,与室外压差大于9.8帕,机房要求密封运行,减少门窗等区域的冷风渗透。 4)、洁净度要求 在表态条件下,主机房内大于0.5微米的尘埃不大于18000粒/升。 5)送风速度 送风速度不小于3米/秒。 6)新风需求 满足工作人员工作所需的新风要求量,按照30~40m3/h·人计算。 根据机房实际可实施的情况,在过渡季节,引入室外较低温度的冷风,减少机房内空调负荷,减少机房空调能耗。 三、数据中心空调建设原则与目标 1)、标准化。数据中心机房规划设计方案,基于国际标准和国内有关标准,包括各种机房设计标准,机房空调相关规范以及计算机局域网、广域网标准,从而为建设高标准、高性能机房奠定基础。 2)、先进性与实用性相结合。机房空调系统设计立足于高起点,参考国际先进的机房空调建设经验以及业界同类机房的建设经验,适应当前数据中心机房的实际情况,构建合理并适当超前的技术体系架构。 3)、可靠性。数据中心机房空调系统应具有高可靠性,以保证数据中心主设备的稳定运行;机房空调制冷量按照机房内设备功耗量以及规划布局等因素设计计算,并考虑合适的冗余,保证为用户提供连续不间断的365×24小时空调运行服务。 4)、可扩充性和工程可分期实施。在机房空调系统设计中充分考虑用户后期的扩容,以及不同功能区间的划分,进行合理的冗余设计,预留合适的安装位置;实现根据区域扩容情况逐步增加机房空调,提高初次投资的利用率。 5)、智能与群控管理。机房空调系统采用智能化设计,可以实现对机房内多台机组进行集群控制,根据机房负荷变化,控制机房空调运行,实现空调能效管理。提供远程监控通信接口,实现远距离监控,远程监控与当地控制相同。 6)、绿色环保、节能、减排。数据中心机房空调设计充分考虑当前机房节能技术和节能方案,满足各种电子设备和工作人员对温度、湿度、洁净度、电磁场强度、噪音干扰、安全保安、防漏、电源质量、振动、防雷和接地等的要求,考虑环保、减排的要求,建设安全可靠、舒适实用、绿色节能、高效的数据中心机房。

相关文档
最新文档