高热流密度机房冷却
机房高温如何快速降温措施

机房高温如何快速降温措施机房是一个重要的设施,用于存放和运行各种计算机和电子设备。
然而,由于设备的高功耗和大量工作负载的进行,机房会产生大量的热量。
如果机房温度过高,这将严重影响设备的正常运行并可能导致设备的故障。
因此,机房高温是一个严重的问题,需要采取快速降温措施来维持适宜的工作环境。
1. 合理的空调配置空调是机房降温的首选设备。
在确定机房空调配置时,应根据机房的大小、布局和热负荷来选择适当的空调设备。
同时,应确保冷气流能够覆盖所有设备,并保证空气流通畅。
2. 热量隔离与散热设计机房的墙壁和天花板应具备良好的隔热性能,以避免外界热量的渗入。
同时,机房内设备的布局也应合理,以便于热量的散发和分散。
可以采用隔热材料、散热装置和散热风扇等方式来增强散热效果。
3. 温度监控系统安装温度监控系统可以实时监测机房的温度。
一旦温度超过设定的阈值,系统将立即发出警报。
同时,监控系统可以对设备的温度进行追踪和记录,以便进行后续的分析和调整。
4. 环境监测与调整机房温度的快速降温需要对环境进行监测和调整。
可以利用温湿度传感器和湿度控制设备来实时监控和调整机房的湿度,以保持在适宜的范围内。
湿度的控制对于防止设备受潮和电路短路非常重要。
5. 合理的设备布局设备的布局应合理,以便于空气的流通和散热。
设备之间应该保持一定的间距,以防止热量的积聚。
同时,应将高温设备和低温设备区分开来,以避免高温设备对低温设备的影响。
6. 定期的维护和清洁定期对设备进行维护和清洁是保持机房温度适宜的关键。
设备在运行一段时间后会积累尘埃,这会阻碍空气的流通并增加散热的难度。
因此,定期对设备进行清洗和维护可以有效预防高温问题。
7. 应急措施的准备除了常规的措施外,机房还应准备应急措施,以应对突发情况。
例如,备用的紧急空调设备、备用的发电机等都可以在机房出现高温问题时起到重要的救援作用。
总之,机房的高温问题不容忽视,需要采取快速降温的措施来保障设备的正常运行和维护适宜的工作环境。
基于液态金属的高热流密度电力设备冷却实验研究

基于液态金属的高热流密度电力设备冷却实验研究李振明;刘伟;赵勇青;刘赟甲;丘明【摘要】大功率电力设备的冷却方式成为制约电力设备集约化紧凑性的重要因素.常规水冷技术难以应对具有高热流密度的工况条件,而新兴的液态金属冷却技术具有解决该难题的潜力.为此,本文建立了基于液态金属的高热流密度电力设备冷却实验平台.在该平台基础上,开展了液态金属和水的对流换热系数和热导率对比实验.实验表明,在相同工况条件下,以液态金属替代水作为冷却介质,系统热阻可由0.033 K/W降低至0.019 K/W;若进一步以液态金属替代传统导热膏作为界面材料,则散热系统热阻可降低至0.014 K/W.%Cooling the electric equipment with high power is one of the important issues to limit the compactness and intensity of electric equipment. Traditional water cooling can not deal with the operating conditions of high heat flux, however, novel liquid metal cooling has the potential to solve the problem. Therefore, this paper presents a study based on liquid metal cooling system for high heat flux electric equipment. The contrast experiments of con-vective heat transfer coefficient and thermal conductivity between the liquid metal and water are carried out. Experi-mental results show that the system thermal resistance can be reduced from 0. 033 K/W to 0. 019 K/W when using liquid metal instead of water as the coolant. Moreover, if further using liquid metal as the thermal interface materi-al, the system thermal resistance can be finally reduced to 0. 014K/W.【期刊名称】《电工电能新技术》【年(卷),期】2017(036)004【总页数】5页(P66-70)【关键词】电力设备;高热流密度;液态金属冷却;水冷【作者】李振明;刘伟;赵勇青;刘赟甲;丘明【作者单位】中国电力科学研究院储能与电工新技术研究所,北京100192;中国电力科学研究院储能与电工新技术研究所,北京100192;中国电力科学研究院储能与电工新技术研究所,北京100192;中国电力科学研究院储能与电工新技术研究所,北京100192;中国电力科学研究院储能与电工新技术研究所,北京100192【正文语种】中文【中图分类】TM40随着电力工业的发展,大功率电力设备的热管理已成为影响电力设备集约紧凑性的关键难题之一。
数据中心(IDC机房)常见冷却方式介绍

数据中心常见冷却方式介绍数据中心机房内部温湿度环境的控制要依靠室内空调末端得以实现,机房专用精密空调具有高效率、高显热比、高可靠性和灵活性的特点,能满足数据中心机房日益增加的服务器散热、湿度恒定控制、空气过滤及其他方面的要求。
数据中心传统冷却方式主要有:风冷型直接蒸发式空调机组、水冷型直接蒸发式空调机组、冷冻水型空调系统、双冷源空调系统。
传统数据中心冷却方式存在传热效率低、局部热点难以消除以及制冷系统能耗大等问题。
针对常规机房能耗较高及使用局限性的问题,数据中心行业新型的冷却方式被越来越开发及使用。
新型的冷却方式有:风侧自然冷却技术、水侧自然冷却技术和热管自然冷却技术等。
下面分别介绍这几种数据中心传统与新型的冷却方式。
1. 风冷型直接蒸发式空调系统风冷型直接蒸发式空调系统如图一所示,机组主要有框架、压缩机、蒸发器、冷凝器、电子调节阀、室内风机、室外风机、机组控制系统、温湿度传感器等组成室外侧翅片换热器作为冷凝器,室内侧翅片换热器作为蒸发器,压缩机排出的制冷剂高温气体在室外侧翅片换热器冷凝成液体后,经膨胀阀节流降压成为低温气液混合体,再流入室内侧翅片换热器,吸收热量蒸发后回到压缩机,完成一个制冷循环; 同时,从室内来的回风经过室内侧蒸发器后则被冷却降温,处理后的冷风由室内侧风机再送入室内。
2. 水冷型直接蒸发式空调系统水冷型直接蒸发式空调系统,室内机配置水冷冷凝器,由室外冷却塔提供冷却水。
机组冷凝器、蒸发器均在室内机组内,制冷循环系统管路短。
风冷型与水冷型直接蒸发式空调系统的主要区别在于冷凝器的冷却方式。
所有机组的冷却水可以做到一个系统当中,由水泵为冷却水循环提供动力。
3. 冷冻水型空调系统冷冻水型精密空调系统一般由冷水机组、冷却塔、冷冻水泵、冷却水泵、冷冻水型精密空调、管路及附件组成。
冷冻水型空调机组,采用冷水机组或板式换热器提供冷冻水,对机房进行温湿度控制。
冷冻水型精密空调具有高能效、结构紧凑、可远距离输送冷量的特点。
超高热流密度散热技术研究进展

超高热流密度散热技术研究进展摘要:超高热流密度的散热问题对传统散热技术提出了极大挑战,本文主要探讨了单相射流冲击冷却、两相射流冷却和微小通道冷却在超高热流密度散热技术中的应用。
指出将阵列射流与微小通道结合有利于进一步提高散热性能。
关键词:单相射流;两相射流;微小通道;阵列射流引言随着微纳技术突飞猛进和高精尖产品集成度升级,很多领域都出现了超高热流密度散热问题。
比如航天领域小型探测器、超级计算机芯片冷却等都需要高热流密度散热技术,这些对传统的散热技术提出了极大挑战,急需研究新的适应超高热流密度的散热方式。
在高热流密度散热技术中,阵列式射流冲击冷却和微小通道液冷是两类应用较广、效率较高的液体冷却技术,它们在电子器件冷却领域各有优势,已经成为目前高热流密度散热领域的研究热点。
考虑到射流冲击冷却和微小通道冷却的优缺点,近年来许多学者从不同角度研究了阵列射流与微小通道相结合的结构,如文献[1-2]集成了这两种散热技术的优点,降低了流动压降,减小了轴向温度梯度,使得壁面温度分布更加均匀,从而提高了流动稳定性。
然而,该结构复杂且换热机理尚未明确,亟需为工程应用积累足够实验数据。
1.单相射流冷却射流冲击冷却是指工质在压差作用下,通过射流孔高速冲击到加热表面上进行换热冷却。
因流体直接冲击加热表面,流程短且在被冲击表面上形成的边界层很薄,故能产生极强的对流换热效应而实现高热流密度热量排散。
影响射流换热系数的因素有多种,射流孔几何结构、加热面结构、工质物性、射流速度、射流方向,以及射流形式等对射流冷却性能有重要影响。
单孔射流的覆盖范围有限,对大面积热源采用阵列式排布的多孔射流可更好地实现均匀冷却。
受周边射流流束和横流影响,多孔阵列射流的流场及温度场分布较单孔更复杂。
理论上,随着射流直径、孔间距和射流距离的同比例减小,射流冷却的换热系数将单调递增,采用微孔阵列射流方法可提高射流冷却的性能。
但需注意,数值研究结果表明,对阵列式结构,射流距离过小时,由于横流的作用会导致下游射流偏离,因此需对射流结构参数进行优化分析,以获得最佳的整体换热效果。
机房制冷方案

机房制冷方案在现代信息化社会中,机房作为企业和组织存储和处理数据的重要地点,其正常运行对于企业的稳定运营至关重要。
然而,机房内的高密度设备和长时间运行往往会引起大量的热量积聚,容易导致设备过热,从而影响其性能和寿命。
因此,机房制冷方案成为机房设计中一个关键的考虑因素。
一、机房制冷需求分析在制定机房制冷方案前,首先需要进行机房制冷需求分析。
该分析旨在确定机房的热量负荷,根据机房设备的功耗和数量、机房的面积和布局以及周围环境的气温和湿度等因素,来估算机房的制冷需求。
只有清楚了解机房的实际需求,才能选择合适的制冷设备和控制方案。
二、机房制冷技术方案1. 空调制冷技术空调制冷技术是常见的机房制冷技术之一。
通过安装空调设备,将机房内的热量排放到室外,从而降低机房内的温度。
空调制冷技术具有成熟稳定、调节范围广、操作简单等优点。
根据机房的实际需求,可以选择中央空调系统或分体空调系统,以满足机房内的制冷需求。
2. 水冷制冷技术水冷制冷技术是一种应用较广泛的机房制冷技术。
通过水冷设备循环流动,将机房内的热量带走,然后通过热交换器将热量排放出去。
水冷制冷技术具有较高的制冷效果和能效比,适用于高密度设备的机房制冷。
同时,水冷制冷技术也要求机房内有足够的水源供应和排水系统。
3. 直接空气制冷技术直接空气制冷技术是一种较为新颖的机房制冷技术。
通过利用直接空气循环,将机房内的热量带走,降低机房温度。
该技术具有节能、环保、易于维护等特点,适用于中小型机房的制冷需求。
直接空气制冷技术通常需要配备风机和空气净化设备,以保证制冷效果和空气质量。
三、机房制冷设备选择选择合适的机房制冷设备对于机房的正常运行至关重要。
根据机房的需求和制冷技术方案,可以选择适合的制冷设备。
制冷设备的选择应考虑以下几个方面:1. 制冷能力:根据机房的热量负荷和制冷需求,确定制冷设备的制冷能力。
制冷能力的选择要满足机房的需求,同时避免过大或过小。
2. 能效比:制冷设备的能效比是衡量其能效性能的重要指标。
机房散热解决方案

机房散热解决方案随着通信业的高速发展,网络核心设备、动力系统、机房设备等能耗占社会总能耗比重越来越大,数据中心冷却功耗占整体功耗高达45%-50%,节能减排成为重要的行业责任和机房建设的未来趋势。
为适应这一趋势,中兴提出了机房热管理方案,给机房内通讯设备提供一个安全可靠的运行环境,通过冷热气流合理分配,达到节能减排的目的。
3.1 目前机房散热现状1)、精密空调系统弥漫推送冷气的方式为了使局部高热区域降温,整个空调系统的温度往往需要调得很低。
目前大多被设置为“强制制冷,25℃”或者是“自动,28℃启动”的工作模式,部分机房的空调甚至是全年开启,所以尽管了优化了冷热气流的组织形式,电能浪费现象依然较为普遍和严重。
优缺点改善气流管理,机房散热能力有所改善;全区域制冷降温, 机房制冷效率低下,无法达到绿色数据中心的PUE值标准无法满足中,高密度机柜的制冷需求,出现大量局部热点;造成机房空间利用率降低。
2)、智能新风系统机房新风系统是通过对机房建筑的简单改造,以智能逻辑控制的通风系统,充分利用机房内部外部环境温差,实现机房内外部冷热空气的直接交换而自然降温,并通过联动控制机房空调的运行状态,达到减少机房空调运行时间,降低机房空调能耗的目的。
优缺点直接利用自然冷风,热交换效率高,节能效果显著引起机房内空气洁净度下降,设备因灰尘、静电、湿度等故障增多3)、智能热交换器系统热交换器在完全隔离内外空气的前提下,利用外界冷源,对内部环境进行冷却,达到减少空调运行时间以实现节能的目的。
优缺点室内外空气不接触,仅热交换,保持洁净度不下降热,湿度不变换热效率不高,对于在温度超过15度地区没效果3.2 中兴机房热管理方案3.2.1 高热密度制冷方案高热密密制冷方案:热源直接冷却,杜绝热流紊乱;此方式灵活,易于改造和维护,满足主流标准机柜。
解决方案一体化冷却机柜---高密度散热解决方案在传统的数据机房制冷系统条件下,机柜热密度一般在2到3KW/机柜,很多机房的机柜只能放几个服务器,以此来降低单个机柜的热负荷,但这又造成了机柜利用率的降低。
数据中心高密度设计优化空间和散热效果

数据中心高密度设计优化空间和散热效果数据中心是现代信息技术的核心设施,承载着各行各业日益增长的数据需求。
在数据中心的设计中,高密度的设备布局既可以提高处理能力,又可以有效利用空间。
然而,高密度设计也带来了散热问题,因此必须采取适当的优化措施,确保数据中心的正常运行。
本文将探讨数据中心高密度设计的优化空间和散热效果。
一、高密度设计的优势与挑战高密度设计是指在有限的空间中布置更多的设备和服务器,以提高计算密度和处理能力。
这样可以最大程度地利用空间资源,降低设备成本和维护成本。
与传统的低密度设计相比,高密度设计具有如下优势:1. 提高计算效率:高密度的设备布局可以减少设备之间的物理距离,缩短信号传输的时间,提高数据传输速度和性能。
2. 节约资源:高密度设计可以充分利用机房的空间,减少用地面积,降低建设成本。
然而,高密度设计也带来了一系列的挑战,特别是散热问题。
高密度设备产生的热量大,如果散热不良会导致设备过热,进而影响设备的性能和寿命。
因此,在高密度设计中必须注重散热效果的优化。
二、优化空间设计在高密度设计中,优化空间设计可以充分利用有限的空间资源。
以下是几种常见的优化空间设计方法:1. 机柜布局优化:合理的机柜布局可以最大限度地利用机柜内的空间,提高设备的密度。
可以采用可调节的机柜,根据不同的设备尺寸进行布局,以充分利用每一寸空间。
2. 机架分层设计:通过将机架分层,可以提高机房的空间利用率。
高温设备可以放置在顶层,冷却设备可以放置在底层,从而实现空间的优化。
3. 空间利用规划:在设计数据中心时,可以根据设备类型和工作流量对空间进行规划。
将高频使用的设备放置在易于访问的位置,而将稀疏使用的设备放置在较为隐蔽的位置,以提高空间利用效率。
三、散热效果的优化数据中心的散热效果直接影响设备的性能和寿命。
以下是一些常见的散热优化措施:1. 合理通风设计:通过合理设置通风孔,可以改善机柜内的空气流动,并促进热量的散发。
机房温度高降温的方法

机房温度高降温的方法1. 使用空调系统:在机房中安装空调系统是最常见的降温方法之一。
空调系统可以通过冷却空气来调节机房的温度,确保设备保持在适宜的工作温度范围内。
空调系统应该能够提供足够的冷却能力来满足机房的热量负荷。
定期检查和维护空调系统也非常重要,以确保其正常运行。
2. 加强通风:机房中应该设置良好的通风系统,以便将热空气有效地排出。
通过安装风扇或通风口,可以增加空气流动,减少机房内部的热量聚集。
要确保通风系统的正常运行和清洁,以防止灰尘和污垢堵塞通风口。
3. 控制设备数量:机房中的设备数量过多可能会导致过高的温度。
要注意合理控制机房内的设备数量,以避免设备过于密集造成热量积聚。
还应定期进行设备的维护和更新,以确保其高效运行。
4. 使用冷通道热通道配置:采用冷通道热通道配置可以有效降低机房的温度。
冷通道指设备的前后都有冷气流进入,而热通道指设备的前后都有热气流排出。
这种配置可以减少热气流在机房内的扩散,提高空气的流通效率,从而降低温度。
5. 定期清洁设备:机房中的设备可能会因灰尘和污垢而堆积热量,导致温度升高。
要定期清洁设备,确保其表面和内部的通风和散热良好。
可以使用压缩空气或吹风机进行清洁,注意不要损坏设备。
6. 使用冷却水系统:对于一些大型机房,可以考虑使用冷却水系统来降温。
冷却水系统通过循环冷却水来降低机房内的温度。
这种系统需要专业的安装和维护,以确保水的流动和冷却效果。
7. 使用热管散热器:热管散热器是一种通过散热片和热管来排出机房内部热量的装置。
它可以有效地将热量传导到散热片上,并通过自然或强制风扇进行散热。
热管散热器适用于小型机房或设备密集的场所。
8. 合理布线:机房中的电缆和线路布线应该合理,并与设备保持一定距离,以防止过高的温度对其产生影响。
电缆和线路的过度聚集可能会导致热量集中在一起,增加机房的温度。
9. 室外散热:对于一些大型机房,可以考虑使用室外散热系统来将热量排到室外。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
浅析数据中心及其冷却系统来源:中关村在线 2011-05-12 09:33:23 [ 16891阅读0评论 ]分享到移动微博分类:标签:系统内容摘要:数据中心的出现,是为了满足日益复杂的任务处理需求,而数据中心节能冷却系统的出现,又是为了解决数据中心的能耗和散热问题。
如果将数据中心比作一个热源,为用户提供服务的过程中不断产生热量,那么数据中心节能冷却系统则是一个冰库,不断吸收和消化数据中心的热量,并在冷热均衡中提供持久稳定的能量输出。
如果将数据中心比作威猛无比、无所不能的巨人,那数据中心节能冷却系统则是巨人的贴身护卫,为数据中心强大而又稳定的功能输出提供源源不断的支持。
“冷”“热”大PK近两年来,数据中心出尽了风头。
一方面,数据中心一改以往神秘莫测、难以接近的形象,纷纷转投亲民路线;另一方面,数据中心犹如阿罗多姿的女子正以各种各样的姿态向世人展示,这其中既有主打安全的铁山数据中心,也有超高密度的SuperNAP数据中心,更有海水数据中心。
这些数据中心从不同角度,展现出令人拍案叫奇的先进技术和设计理念。
此外,还出现了一种集装箱数据中心。
它采用了不同以往的数据中心建设方案,以标准化、模块化的方式在集装箱中进行数据中心的搭建。
这种新型的集装箱数据中心,可以节省动辄成百上千平米的机房设施,它不受场地和时间限制,根据用户需要可以随时进行调配。
在IDF 2011峰会上展示的富士康集装箱数据中心与此相关,不太为人所知的数据中心节能冷却系统也开始逐渐走入“寻常百姓家”。
“魔高一尺道高一丈”,某种程度上说也能反映当今和未来数据中心发展历程所经历的坎坷之路。
数据中心节能冷却系统是随着近年来数据中心的发展壮大而不断成熟。
比如传统所采用的风冷精密空调系统、离心式水冷空调系统,正向更加节能和高效的地下溶洞、海水等自然制冷方式转变。
IDS和谷歌公司分别提出了DATAship和water-based datacenter海上数据中心架构。
IDS 的第一个船舶数据中心停靠在旧金山湾,它拥有多达1500架服务器的能力。
IDS的设计特点是对地板进行冷却,利用APC的热通道密封系统隔离开数据中心的冷热空气。
在循环冷却系统上也将使用IDS创新技术:使用船舶的双壳创建一个热交换。
船体之间被用来储存燃料或石渣水,在闭合的空间内使冷盐水转换称淡盐水,并形成一个封闭的水冷却系统。
而谷歌的“water-based datacenter”将依靠海水和潮汐发电,同时利用海水的流动,对数据中心里的机器进行冷却。
将数据中心设立在一艘或多艘停靠在水上的船上,通过自然水流运动采集能源,转换成为电能提供给数据中心使用,或者提供给冷却水泵用于冷却数据中心。
近年来,谷歌、IBM、思科、惠普、富士康、博科和微软等各大厂商,纷纷亮相旗下数据中心,向世人展示其雄厚的公司实力。
这些数据中心形态各异、五花八门,既有建造在地下溶洞内的铁山数据中心,也有建造在海上的IDS DATAship数据中心,以及建造在水泥筒内的Clumeq数据中心。
厂商轮番上阵大秀肌肉众厂商数据中心齐亮相,一方面,这是各大IT和运营商展示其公司实力和技术创新之举,体现了各大公司在机房设计和散热方面的技术成果,也体现了网络设备的强大性能和可靠性。
另一方面,众厂商纷纷展示数据中心,也是为了迎合整个市场发展的需要。
微软数据中心2010年展现的IBM数据中心虽然不能很明确地指出谁是第一个“自揭其数据中心”的厂商,但可以肯定的是,目前展示数据中心的厂商之多、频度之快早已不是以前所能比拟的。
尤其是自从Facebook推出开源数据中心架构之后,数据中心已经成为了广大媒体和读者的热点。
比如,紧接着思科推出集装箱数据中心之后,博科也借助技术日向世人展示其位于硅谷的数据中心,而惠普也紧随其后,推出数据中心超级冷却系统。
Facebook开源数据中心另外一个不容忽视的是,各大厂商轮番上阵展示数据中心,也是为了顺应云计算和虚拟化的趋势、及早抢占市场制高点捕获人心的需要。
云计算和虚拟化是当今和未来相当长时间内最热门的IT应用领域,数据中心在整个IT应用中又起着核心作用。
在未来云计算和虚拟化市场上,需要借助新一代系统平台和服务理念,改造过去零星分散、资源浪费、效率低下的格局。
如果数据中心还停留在过去的水平,势必满足不了未来市场需要,相应的技术厂商和服务商也就会面临被淘汰的命运。
在宇宙哲学中,有热自然就有冷,这是亘古不变的真理,对于数据中心来说也同样如此。
从数据中心出现的那一天开始,就伴随有相关节能冷却系统的出现。
在我国,第一代计算机机房诞生于上世纪60年代初,中科院计算所计算机大楼及机房冷却系统也随着建立起来、当时为机房配置了集中制冷空调系统,虽然由于系统庞大、地板下通风管网纵横交错,使得系统风量分配调节很难达到平衡,机柜内热交换效率非常低,但也算是国内数据中心冷热之战的首轮交锋。
此前我们提到过的风冷精密空调冷却系统,就是专门应用与数据中心的传统冷却系统,它一般采用涡旋压缩机制冷(一般安装在精密空调内),能效比相对比较低,而且还存在安装困难的问题。
风冷精密空调冷却系统伴随冷却技术的发展,同时也是为了更好地满足数据中心散热和节能需要,出现了现代冷却系统。
现代冷却系统以模块化为特点,尤其是美国APC公司开发出的模块化机柜级(In-row)冷却系统最具代表性。
它采用了模块化组合方式,使得每个模块可跟着机柜走、又围着机柜转的制冷系统。
该模块化机柜级冷却系统不仅能满足高密度机柜冷却需要,同时也能满足大中型数据中心散热需要。
APC In-Row 模块化冷却系统新安装好的APC In-Row 冷却单元目前新一代数据中心采用的冷却系统中,比较常见的还有离心式水冷空调系统,这种冷却系统的特点是制冷量大并且整个系统的能效比高(一般能效比在3到6之间)。
离心式水冷空调系统而本文中所提及的海水数据中心、地下溶洞数据中心,都采用了结合现代冷却工艺和自然冷却源的方式进行,这种方式在满足冷却需要的同时,更能实现节能减排的目标。
矿物油冷却系统打破传统格局高热密度制冷专家Green Revolution Cooling提出了一种颠覆式的冷却系统方案。
该冷却系统要求将机柜平衡放倒在地,然后倒入250 加仑的电介质液体,将服务器垂直插入周围的槽体内,并由连接到商用蒸发式冷却塔上的热交换器来控制液体的温度。
该液体容器是由3英寸厚的角钢制成,每个容器里都装有液体液位检测传感器,冷却液体水位反生变化时会立即报警。
水平放倒的冷却机柜内含矿物油的冷却系统根据介绍,该液体冷方案却主要用于高性能计算(HPC)和其他应用的高密度部署,主要针对难以管理的空气冷却问题。
而对于液体冷却的安全问题该公司负责人表示,矿物油作为浸泡液体并没有危险性,矿物油的导热性和水一样,但不没有电荷。
冷与热,守与攻,将是数据中心过去、现在和未来的发展常态。
在考虑部署数据中心的时候,都不能忽视这两者中的任何一个。
随着人们环保意识的增强,通过技术手段获得更加高效的能源使用效率,使数据中心向“绿色”转型。
这是数据中心发展是必然,也是符合云计算和未来业务处理的需要。
适用于单个机柜的冷热通道分布适用于高密度机柜的冷热通道分布因此,数据中心当下兴起来的热,既是数据中心本身所产生的热量,也是各大数据中心厂商掀起来的你追我赶之势。
而数据中心的稳步健康发展,自然也离不开高效、稳定的节能冷却系统。
“热”与“冷”之间的大PK,表面上是一种技术之争,实质上却是数据中心健康发展的优化平衡。
未来的数据中心,势必是“热”与“冷”的齐头并进。
盘点数据中心冷却系统摘要:众所周知,云计算时代已经到来,这预示着数据中心面临的挑战也更大,而数据中心的节能冷却系统在其中更是备受人关注。
我们要介绍的是在IT基础架构中扮演重要角色的数据中心。
众所周知,云计算时代已经到来,这预示着数据中心面临的挑战也更大,而数据中心的节能冷却系统在其中更是备受人关注。
衡量数据中心能效的一个关键指标就是PUE(能量使用效率),它最初由微软技术专家Christian Belady在2006年提出。
目前, PUE已发展成为一个全球性的数据中心能耗标准。
PUE的值等于数据中心总能耗与IT设备能耗的比值,比值越小,表示数据中心的能源利用率越高,该数据中心越符合低碳、节能的标准。
国外还提出了与之成倒数关系的DCiE (数据中心基础设施效率)。
PUE和DCiE在2007年2月的时候,被绿色网格组织(Green Grid)定义为衡量数据中心的能效比指标。
PUE与DCiE指标在正式介绍数据中心节能冷却系统之前,让我们先来看看全球几大低PUE值数据中心(PUE<1.10)。
1、雅虎“鸡窝”式数据中心(PUE=1.08)雅虎在纽约洛克波特的数据中心,位于纽约州北部不远的尼亚加拉大瀑布,每幢建筑看上去就像一个巨大的鸡窝,该建筑本身就是一个空气处理程序,整个建筑是为了更好的…呼吸‟,有一个很大的天窗和阻尼器来控制气流。
雅虎“鸡窝”式数据中心2、Facebook太阳能数据中心(PUE=1.07)Facebook在俄勒冈州建成了一个大型数据中心,其部分供电由太阳能电池板阵列来供应。
该数据中心太阳能电池阵列可以提供100千瓦的电力供应,其主要应用在辅助设施方面,例如低功耗的机械室和办公区域。
Facebook数据中心太阳能板3、惠普EcoPOD模块化数据中心(PUE=1.05)可容纳多达44个工业标准的IT设备和超过4400台服务器。
通过两个冷通道或一个共享的八英尺散热通道来实现,降低了维护难度。
Eco POD三大特点:自然进气的惠普自适应冷却技术;全球最快12周交付客户使用;减少75%投资成本惠普EcoPOD模块化数据中心4、梅林模块化数据中心(PUE=1.08)将集装箱数据中心整合,组成了一个大的服务器集群。
每个集装箱数据中心都由4个部分组成,可以实现快速部署。
另外,梅林数据中心模块80%的材料是可以回收的,大大降低了污染,从而实现低碳化。
梅林模块化数据中心常见数据中心冷却系统由于数据中心的发热量很大且要求基本恒温恒湿永远连续运行,因此能适合其使用的空调系统要求可靠性高(一般设计都有冗余备机)、制冷量大、温差小和风量大。
下面,我们简要介绍下适合数据中心部署的空调冷却系统。
1、风冷精密空调这是数据中心最传统的制冷解决方案,单机制冷能力一般都在50到200KW之间,一个数据机房一般都是安装多台才能满足需要。
下面是风冷精密空调的工作原理图。
风冷精密空调工作原理图风冷精密空调一般采用涡旋压缩机制冷(一般安装在精密空调内),能效比相对比较低,在北京地区一般在1.5到3之间(夏天低,冬天高)。
风冷精密空调在大型数据中心中使用存在以下不足:●安装困难●在夏天室外温度很高时,制冷能力严重下降甚至保护停机●对于传统多层电信机房,容易形成严重的热岛效应●需要开启加湿除湿功能,消耗大量能源2、离心式水冷空调系统这是目前新一代大型数据中心的首选方案,其特点是制冷量大并且整个系统的能效比高(一般能效比在3到6之间)。