9电子产品散热技术最新发展

9电子产品散热技术最新发展
9电子产品散热技术最新发展

散热设计(九)电子产品散热技术最新发展晨怡热管https://www.360docs.net/doc/311900422.html,/news/42/2006-10-2 1:29:47

日期:2005-11-6 23:45:04 来源:电子设计资源网查看:[大中小] 作者:刘君恺热度:

最近几年包含LSI、数字相机、行动电话、笔记型计算机等电子产品,不断朝高密度封装与多功能化方向发展,使得散热问题成为非常棘手的课题,其中又以LSI等电子组件若未作妥善的散热对策,不但无法发挥LSI的性能,严重时甚至会造成机器内部的热量暴增等后果。然而目前不论是LSI组件厂商,或是下游的电子产品系统整合业者,对散热问题大多处于摸索不知所措的状态,有鉴于此本文将介绍国外各大公司,针对电子产品实施的散热对策实际经验,同时还要深入探索散热技术今后的发展动向。

散热技术的变迁

如图1所示由于「漏电」问题使得LSI的散热对策是系统整合的责任,这种传统观念正面临极大的变革。此处所谓的漏电是指晶体管(transistor)的source与drain之间,施加于leak 电流的电源电压大晓而言。理论上leak电力会随着温度上升不断增加,如果未有效抑制热量意味着leak电力会引发更多的热量,造成leak电力持续上升恶性循环后果。

以Intel新推出的微处理器(micro process)而言,它的消费电力之中60%~70%是属于leak电力,一般认为未来1~2年leak电力仍然扮演支配性角色。在此同时系统整合业者,由于单位体积的热量不断膨胀,使得如何将机器内部的热量排除更是雪上加霜,因此系统整合业者转因而要求LSI组件厂商,提供有效的散热对策参考模式,事实上Intel已经察觉事态的严重性,因此推出新型微处理器的同时,还提供下游系统整合业者有关LSI散热设计的model case,因此未来其它电子组件厂商未来势必跟进。

图1 电子组件散热对策的变化趋势

如上所述LSI等电子组件的散热对策,成为电子业界高度嘱目焦点,主要原因是电子产品性能快速提升所造成。以往计算机与数字家电业者大多忽视漏电电力问题的存在,甚至采取增加电力的手法补偿漏电电力造成的损失,未来将变成优先抑制热量,藉此提升产品的性能等方向发展(图2)。

图2 电子产品单位体积的热密度变化趋势

为了刺激消费者更换笔记型计算机的意愿,LSI组件厂商不得不提高微处理器的动作频率,电视与DVD业者也不干示弱,积极提升影像显示器的影像处理能力,例如目前液晶电视显示画面时的辉度,已经比以往提高二倍,大约是380cd/m2左右。然而液晶电视与笔记型计算机最大差异,是消费者要求笔记型计算机轻巧化高性能的同时,耗电量大幅增加使得单位体积的热密度相对提高,DVD、数字相机等电子产品,虽然同样也面临单位体积的热密度问题,不过由于显示画素受到format的限制,因此记录方式的规格变更与取像组件高画素化,却不因热密度问题受到阻碍反而更快速进步。电浆电视与液晶电视等平面显示器的进化,似乎也没有因为热密度问题受到额外的干扰,相反的随着平面显示器的薄型化、高辉度化与大型化,反而更具备降低热密度的条件。一般认为由于因特网的普及化,可作互动沟通的通信产品与平面显示器,未来有可能遭遇热密度上升的挑战,如此一来LSI电子组件的散热对策会更加困难,因为热密度提高意味着散热空间越小。除此之外,电子组件的增加与静音化势必成为散热对策时的附带诉求(图3)。

图3 散热设计面临的课题

如图4所示有热能考量的电子组件大致上可分为两种,分别是:

①.会产生高热量的电子组件。

②.对热很脆弱的电子组件。

传统观念认为所谓的散热设计,只要妥善处理会产生高热量的微处理器与其它电子组件即可,不过随着电子产品多功能化,因此进行高热量的影像处理LSI、内存等电子组件散热设计的同时,也需要将对热能很脆弱的电子组件列入考虑,例如DVD的光学读写头、数字相机的CCD与CMOS 等取像组件以及液晶面板等等,都是典型对热能很脆弱的电子产品。

图4 需作散热设计的电子组件

散热静音化

由于笔记型计算机散热静音化格外受到消费者的重视,因此业者不得不采用更先进的散热技术(图5)。因为传统强制冷却风扇的噪音逐渐受到很嫌弃,进而促成可快速散热的石墨膜片((graphite sheet),与利用pump作冷却液循环的水冷式散热device成为市场新宠,其中又以噪音值低于30dB的水冷式散热设计(图6),已经广泛应用在各种电子产品,达成无冷却风扇超静音的目标,一般认为未来水冷式散热设计可能会延伸至数字家电等领域。

图5 笔记型计算机的散热技术发展趋势

图6 笔记型计算机的散热技术发展趋势

如上所述无风扇散热设计虽然已经成为笔记型计算机的主流,不过对大部份的系统整合业者而言,若无LSI组件厂商的协助,要达成无风扇散热设计显然不太容易,因为以往LSI组件厂商只愿意提供电子组件的最大消费电力,然而系统整合业者进行包含device在内的散热模拟分析(simulation)时,必需建立各种条件时的消费电力模式,由于欠缺完整的组件数据,使得业者无法获得精确的数据。这意味着未来LSI组件厂商与系统整合业者的互动会更加频繁,必要时LSI组件厂商有责任提供有助散热的附属device,并推荐散热设计模式。图7是NEC开发的散热仿真分析软件应用实例,根据NEC表示该散热仿真分析软件,该软件不但可作LSI电子组件仿真分析,甚至系统的外筐散热也能胜任。除此之外该公司同时还开发新型的水冷技术,该技术可使冷却液在三次元积层的LSI各层循环,图8是应用这种新型水冷技术的二极管(diode)外观与特性。

图7 散热仿真分析软件应用实例

图8 使用新型散热技术的二极管

数字电子产品的散热

决定device散热对策的要素有两个,分别是:

(a).搭载device机器的单位体积消费电力。

(b).成本的容许度。

有关(a)项单位体积的消费电力,由于热密度越大造成要在狭窄空间,要将更多的热量排出筐体外部的散热设计越不容易。

有关(b)项成本的容许度,是指机器的价格越高,相对的散热设计获得的成本容许度越大,更有裕度采用成本较高的新型散热技术。

图9是根据以上的观点制成的散热设计approach,由图可知热密度越高成本容许度越大的产品,以笔记型计算机最具代表性;热密度较低成本容许度较小的产品,类似数字相机、DVD等等都是它的范畴;热密度较低成本容许度极大的产品,则有电浆电视、大型液晶电视等平面显示器。

图9 散热设计的approach

由于笔记型计算机的散热设计已经缔造先例,能同时满足性能与成本两大课题,因此今后势必会对其它电子产品产生示范效应。值得注意的静音化散热设计的加入,尤其是新型笔记型计算机大多采用无冷却风扇设计,使得冷却风扇的生存空间,可能会遭受溃散性的压缩。例如松下与SONY 基于笔记型计算机轻巧化考量,率先采用热扩散性极高的石墨膜片,进而达成无冷却风扇散热设计。松下的笔记型计算机使用动作频率为1.2GHz,12W的微处理器利用石墨膜片作散热,该石墨膜片与铝形成复合化藉此改善弯曲加工性,同时再用铝压着加工技术将石墨膜片周围密封,防止石墨膜片发生粉尘影响外观(图10)。微处理器产生的热量可以扩散至石墨膜片,并传导至键盘背部与外筐排至外部,这种新型散热机构的重量,比传统冷却风扇散热设计减少15g,14吋SXGA液晶面板+DVD-ROM之后的整体重量只有1499g。

SONY的笔记型计算机使用7W的微处理器,它是利用设于主机板(mother board上下方的石墨膜片,将微处理器产生的热量扩散至外筐散热。根据SONY表示该散热机构的重量比传统冷却风扇散热设计减少一半,成本则完全相同(图11)。

图10 无冷却风扇的笔记型计算机(松下)

图11 无冷却风扇的笔记型计算机(SONY)

至于30W以上高阶笔记型计算机,若单纯利用石墨膜片散热,可能无法达成预期效果,基于散热性能比轻巧化更重要等考量,因此日立公司在2002年9月推出全球首度使用水冷模块的笔记型计算机,虽然事后并没有其它业者跟进,不过随着微处理器的消费电力不断刷新,使得冷却风扇的噪音问题再度受到相关业者的注意。

NEC开发笔记型计算机专用超薄型水冷模块,该水冷模块为达成静音特目标,采用厚度只有5mm 的压电pump,模块内部设有循环水路的铝质散热板厚度低于3mm,图12是水冷模块的结构与应用实例。有关水冷模块冷却液的挥发性,由于该模块采用液体穿透性极低的材料,同时提高模块的密封性,因此可以有效减少冷却液的挥发,使得冷却液补充槽的体积只有以往的1/10左右。东芝试作的水冷模块可将微处理器的热量,扩散至设于液晶面板背面的散热板(图13)。该公司认为这种方式未来会成为高阶笔记型计算机的散热设计主流,因此预定2004年推出水冷式笔记型计算机。事实上全球首度使用水冷模块的日立公司,也坚信30W以上静音高阶笔记型计算机,除了水冷方式没有其它方法可供选择,因此计划未来将全力推广水冷模块(图14)。

图12 无冷却风扇的笔记型计算机(SONY)

图13 内设水冷模块的笔记型计算机

图14 内设水冷模块的笔记型计算机

日本IBM基于可靠性优先等考量仍然采用空冷方式,它是利用小型heat pipe与冷却风扇的

组合,将微处理器产生的热量排至外部。该公司在2003年4月推出动作频率为3.06GHz微处理器的膝上型计算机,就是采用冷却性能比heat pipe更高的vapor与冷却风扇构成的散热器,这种新型散热器可将消费电力为84W的微处理器的热量排至机体外部(图15)。IBM未采用水冷方式的理由有两项,第一是可靠性问题,由于pump等组件数量增加,不但可靠性令人质疑,而且还会成本上升等后果;第二是采用水冷方式整体设计自由度相对受到限制,因为水冷模块必需附设热交换器,为了获得最佳化散热效率,反而造成其它单元的layout受到极大限制。有关冷却风扇的噪音,IBM认为冷却风扇的大型化可以降低转速,进而减缓旋转造成的噪音,不过该公司也承认未来必需开发空冷以外的新技术。

图15 内设vapor chamber的笔记型计算机(IBM)

随着数字摄影机的CCD画素增加与记录媒体的进步,轻巧小型已经成为无法避免的潮流趋势,类似上述数字产品属于可携式精密电子设备,所以防尘、防水的密封性,以及防止记录时噪音混入都是必备特性,换言之未来无冷却风扇的散热设计,势必成为市场主流。

日立公司针对DVD读写头的散热设计进行整体检讨,采用全新组件控制温度,藉此稳定雷射的输出,使读写头的温度能抑制于700C以下。该公司的散热对策可分为三大项,分别是:

(一).将基板产生的热量扩散至外筐散热。

(二).利用遮屏将高发热基板与读写头隔离。

(三).将基板与基板物理性距离分隔。

有关第(一)项,将热量扩散至外筐散热,具体方法是使用铜质板材外筐。

有关第(二)项,隔离高发热基板与读写,具体方法是使用蔀锈钢遮屏,藉此减少热量传导至读写头。

第(一)项述及的铜质板材外筐厚度与形状,根据日立表示经过最佳化模拟分析,成本可降至石墨膜片的1/5以下(图16)。

JVC新推出的高画质数字摄影机,由于消费电力从以往的2~3W暴增至9.7W,加上摄影机使用MPEG压缩/解压缩单芯片LSI,传统铜质外筐显然无法有效达成散热要求,因此改采小型heat pipe(图17),根据实验结果小型heat pipe可使上述LSI的1060C工作温度降至660C 以下。

SONY的211万画素数字摄影机,基于小型化与CCD取像组件散热等考量,同样是使用小型heat pipe,将CCD的热量传至铝质frame,进而获得铜板无法比拟的热传导效率(图18)。

有关平面显示器(FPD: Flat Panel Display)的散热设计,不论是液晶电视与电浆电视,目前大多延用传统散热方法,不过内建tuner基板,亦即所谓的tuner一体型FPD TV,未来若要达成无冷却风扇目标,tuner基板上的组件散热对策就非常重要。SHARP的液晶电视,设计阶段便非常积极利用热模拟分析,仔细评估主要组件的实际动作温度,并检讨各电路板冷却设计,试图藉此手法事先防范散热问题(图19)。根据SHARP表示经过散热模拟分析的tuner一体型FPD TV,两个冷却风扇可减少一个,散热效果则完全相同。PIONEER的tuner分离式电浆电视背部,则是采取两层铝板接合结构,藉此使铝板表面积增加二倍,进而获得与heat sink相同效果,同时还可以使面板产生的热量均等化(图20)。

有关行动电话的散热设计,由于目前的机型使用的LSI消费电力较低,所以还没有急迫性的散热问题,不过随着3G的普及化,动画摄影记录、传输功能的加入,以及轻巧薄型化的市场需求,一般认为业者迟早会面临散热设计的挑战。

图16 数字摄影机的散热设计实例(日立)

图17数字摄影机的散热设计实例(JVC)

图18 数字摄影机的散热设计实例(SONY)

图19 液晶电视散热设计步骤与热仿真分析实例

图20 电浆电视背面无冷却风扇设计实例

水冷pump的发展动向

pump在水冷模块内负责冷却液的循环,因此pump对水冷模块整体性能具有决定性影响。图21所示的新型水冷pump是用高分子制成的actuator,因此可以有效消除动作噪音。该高分子actuator素材与电子组件常用的防静电polypyrrole完全相同,属于导电性高分子材料,制作时利用条件与塩基的最佳化可以提高分子材料的伸缩性,即使作成薄膜时亦能保持一定强度。

图21 高分子actuator构成的水冷pump

施加电压时高分子材料的伸缩率为40%,远比传统材料的3%高13倍左右。伸缩率为20~40%高伸缩率type的发生力为50kgf/cm2,伸缩率为12~15%的高伸缩率type发生力更高达200kgf/cm2,相当于人体肌肉的100倍可以左右,即使如此pump动作时几乎完全不会产生任何动作噪音。由两片导电性高分子膜片的伸缩动作构成的驱动部,1Hz的驱动频率,亦能维持充分的吐出性能。

传统压电pump的压电陶瓷变位量比新型高分子pump小二位数,为获得相同的吐出量,因此动作频率必需高达数十Hz~数十kHz,其结果造成动作噪音随着动作频率增加;利用电磁马达驱动的离心pump也有马达旋转噪音的问题。相较之下新型高分子pump的驱动电压只有2V,而且不需压电pump的升压回路,所以构造非常简洁。若要增加吐出量或是吐出压力,只需将伸缩部位并列化就可依照设计需求随意变更,例如外形70mm正方的空间内可制作600个直径4mm 的驱动部。

图22是NEC改良传统压电pump与离心pump,开发笔记型专用的压电式水冷模块。该公司基于系统整体薄型化等考量因此采用压电pump设计。冷却发热量为40W微处理器的冷却模块,内建循环水路的铝质散热板厚度必需低于3mm,因此压电式水冷模块的厚度为5mm,水路的宽度为20mm,高0.8mm。根据NEC表示要在如此狭窄的水路稳定移送冷却液,所以不得不使用压电pump,是采用压电设计的主要原因。由于压电pump内部逆止阀的耐久性有偏低之虞,因此NEC使用树脂材料彻底解决上述疑虑。有关压电pump的可靠性,由于压电pump即使冷却液不足混入气泡时,亦不会像离心pump发生动作不良等问题,该公司计划2005年第二季开始商品量产。

图22 超薄型压电式水冷模块(NEC)

松下基于空间与高效率等考量改良传统离心pump,具体方法是将pump与热交换器一体化,利用离心pump的叶片搅动,同时获得冷却液的移动与热交换双重效果(图23),根据该公司表示如此设计,可使热交换效率提高10~20%,此外一体化的热交换器压力损失大幅降低,因此pump 的体积相对缩小。

电子产品散热设计概述(doc 45页)

电子产品散热设计概述(doc 45页) 部门: xxx 时间: xxx 整理范文,仅供参考,可下载自行编辑

YEALINK 行业 dell

电子产品的散热设计 一、为什么要进行散热设计 在调试或维修电路的时候,我们常提到一个词“**烧了”,这个**有时是电阻、有时是保险丝、有时是芯片,可能很少有人会追究这个词的用法,为什么不是用“坏”而是用“烧”?其原因就是在机电产品中,热失效是最常见的一种失效模式,电流过载,局部空间内短时间内通过较大的电流,会转化成热,热**不易散掉,导致局部温度快速升高,过高的温度会烧毁导电铜皮、导线和器件本身。所以电失效的很大一部分是热失效。 高温对电子产品的影响:绝缘性能退化;元器件损坏;材料的热老化;低熔点焊缝开裂、焊点脱落。 温度对元器件的影响:一般而言,温度升高电阻阻值降低;高温会降低电容器的使用寿命;高温会使变压器、扼流圈绝缘材料的性能下降,一般变压器、扼流圈的允许温度要低于95C;温度过高还会造成焊点合金结构的变化—IMC增厚,焊点变脆,机械强度降低;结温的升高会使晶体管的电流放大倍数迅速增加,导致集电极电流增加,又使结温进一步升高,最终导致元件失效。 那么问一个问题,如果假设电流过载严重,但该部位散热极好,能把温升控制在很低的范围内,是不是器件就不会失效了呢?答案为“是”。 由此可见,如果想把产品的可靠性做高,一方面使设备和零部件的耐高温特性提高,能承受较大的热应力(因为环境温度或过载等引起均可);另一方面是加强散热,使环境温度和过载引起的热量全部散掉,产品可靠性一样可以提高。 二、散热设计的目的 控制产品内部所有电子元器件的温度,使其在所处的工作环境条件下不超过标准及规范所规定的最高温度。最高允许温度的计算应以元器件的应力分析为基础,并且与产品的可靠性要求以及分配给每一个元器件的失效率相一致。 三、散热设计的方法 1、冷却方式的选择 我们机电设备常见的是散热方式是散热片和风扇两种散热方式,有时散热的程度不够,有时又过度散热了,那么何时应该散热,哪种方式散热最合适呢?这可以依据热流密度来评估,热流密度=热量 / 热通道面积。 按照《GJB/Z27-92 电子设备可靠性热设计手册》的规定(如下图1),根据可接受的温升的要求和计算出的热流密度,得出可接受的散热方法。如温升40℃(纵轴),热流密度0.04W/cm2(横轴),按下图找到交叉点,落在自然冷却区内,得出自然对流和辐射即可满足设计要求。

数据中心建设必要性

“数据中心”是人类上世纪在IT组织应用推广模式方面的一大发明,标志着IT应用的规范化和组织化。今天,几乎所有大中型机构(政府部门、企业、科教院校…)都建立了自己的数据中心,全面管理本机构的IT系统。覆盖全球的Internet和无数机构的业务实际上是在大量数据中心支持下运转的。各种数据中心已经成为交通、能源一样的经济基础设施。当前的形势是,人类社会在得益于数据中心的同时、也受到利用传统技术建立起来庞大数据中心资产的种种困扰,在成本、因变速度、安全、能源消耗等方面面临着一系列严峻挑战。人们普遍的共识是:传统的数据中心已经不适应全球化时代对IT技术的许多新要求,必须进行革新,否则就会走向反面,成为阻碍 IT发展的因素。 因此,建设新一代数据中心。这成为人们普遍关心的热点问题。许多人都在问:为什么要革新现有的数据中心、建设新一代数据中心?什么是新一代数据中心?怎样建设新一代数据中心?人们从国内外许多媒体上都可以感受到对这三个问题的普遍关注。这三个问题融合在一起就成为一个关乎IT产业和应用全局的问题:“推动数据中心革命、建设新一代数据中心”。 令人欣慰的是,有关的理论和实践正在逐步成熟,惠普公司最近组织出版的《新一代数据中心建设理论和实践》一书[1]就是一个实例。我们的系列文章也将以此为范本,探讨新一代数据中心的起源、设计思想、建设规划和方法,并介绍多个帮助应对挑战的实施解决方案。 现有数据中心面临的困难和挑战 随着企业全球性竞争的加剧,传统数据中心设计理念的局限性也逐步暴露无遗,使它们面临一系列严峻挑战,在许多方面已经不适应全球化时代对IT技术的新要求,

1.降低成本的挑战 当前低迷的经济和剧烈的竞争要求企业大幅度降低成本,而许多数据中心的运行成本却反而在不断攀升。据专家分析,在今后的五年中,企业在管理和运作IT系统方面的成本将是其直接购买系统成本的三倍;使人们更加难以忍受的是许多服务器未能得到充分的利用。在很多企业的数据中心中,CPU使用率均低于25%;IT资源利用率也仅为20%左右。显然,如何降低人力成本,如何降低IT总体拥有成本,如何提高IT 的投资回报,是摆在企业CEO、CIO们面前的重要课题和当务之急。 2.加快应变速度的挑战 目前企业业务变革的速度正在日益提升,一方面变革产生的各种风险随之增加,因而IT系统以更快的响应速度和更有效的应对措施,来降低这类风险也就变得愈加重要。另一方面,变革速度的加快给企业数据中心带来时间上更大的压力,这也迫使企业IT系统提高响应速度。 3.业务连续性和灾难恢复的挑战 局部的突发性灾难事件,如地震、洪水、飓风、火灾或者恐怖活动等,都可能对企业或机构的业务产生重大影响,导致公司收入减少,利润下降甚至失去客户。而重大灾难事件则很可能导致公司一蹶不振乃至倒闭。根据权威统计,在经历突发性的重大灾害后,有大约43% 的公司倒闭,还有另外51% 的公司也会在两年之内倒闭。

数据中心未来供电技术发展浅析

数据中心未来供电技术发展浅析 2014-06-09 17:14 李典林腾讯字号:T | T 随着数据中心技术的发展以及降低运营成本和节能减排的需求,市电直供方案将在大型的互联网数据中心等场合的应用会越来越广泛,成为未来趋势。 AD: WOT2014课程推荐:实战MSA:用开源软件搭建微服务系统 51CTO主办WOT全球软件技术峰会直减百元优惠活动抢票进行中! 随着数据中心技术的大规模建设,以及更为关注能源利用效率,数据中心供电技术未来的发展方向一定是市电直供技术,在降低前提投资成本的同时,还通过高效率供电减少后期运营成本。这里所说的高效率不仅仅是指电网侧到IT设备的供电路径高效率,而是一次能源侧到CPU等的整个能源路径上的高效率和绿色环保,虽然传统概念的PUE可能升高,但单位总能耗是降低的。未来的总体发展趋势是高压/集中式/交流大UPS向低压/分布式/直流小UPS方向发展,由机房外集中式铅酸电池向IT机柜内分布式小(锂)电池等方向发展,从化石能源向绿色能源方向发展。 数据中心数据中心供电不间断的核心在于不间断电源及其电池技术,因此电池连接的位置也决定了不同的供电架构。目前业界主流的备用电池电压从高到低分别有UPS的四百多伏,到直流电源的380V、240、及48V,甚至电池内嵌到IT设备内的12V等。下图是目前业界在数据中心供电方面的主要技术方案,首先从集中式四百多伏铅酸电池的传统UPS,其次到标准服务器不用定制、240V电池直挂输出母线的240V高压直流技术,接着还有服务器采用定制48V或者380V输入电源的48V直流或者380V高压直流电池直挂技术,最后再到google等的12V电池直挂服务器主板输入方案。电池越靠近末端服务器主板或者CPU,供电系统越为分散,相应的IT系统也更为分布式;电池越靠近末端,供电系统的定制化程度越高,普通用户规模开展的难度也越大;电池越靠近末端,对IT电源及电池的控制管理水平要求也越高。最后,电池越靠近末端,从电网到CPU供电路径上的转换级数也相应减少,带来更高的转换效率,但可能在低压侧传输损耗又会增

电子产品的自然散热

电子产品的自然散热 在功率密度不高的电子产品中,如电子测量仪器、电子医疗仪器等,运用自然冷却技术比较多,且冷却成本低,可靠性高。电子产品自然冷却 的传热途径是产品内部电子元器件和印制板组装件通过 导热、对流和辐射等传向机壳,再由机壳通过对流和辐射 格热量传至周围介质(如空气、水),使产品达到冷却的目 的,如图5—16所示为一个电源的通风孔。斯麦迪电子 为了增强电子产品自然冷却的能力,应从以下几个方 面进行认真设计:⑦改善产品内部电子元器件向机壳的传 热能力;②提高机完向外界的传热能力;⑤尽量降低传热 路径各个环节的热阻,形成一条低热阻热流通路,保证产 品在允许的温度范围内正常工作。 1.电子机箱机壳的热设计电子产品的机完是接收内部热量并将其散发到周围环境中去的一个重要组成部分 机壳的热设计在采用自然冷却降温的一些密闭式电子产品中显得格外重要。许多实验和 事实证明: 0增加机壳内外表面的黑度,开通风孔等,能降低电子元器件的温度 ②机壳内外表面高黑度的散效果比低黑度开通风孔的散热效果好; ③机壳两侧均为高黑度的散热效果优于只有一侧高黑度时的散热效果,提高外表面的黑度是降低机壳表面温度的有效方法; ④在机壳内外表面增加黑度的基础上, 合理地改进通风结构,加强冷却空气的对流、可以明显地降低产品内部的温度。 2.机壳通风扎的设置 在机壳上开通风孔是为了充分利用冷却空气的对流换热作用,通风孔的结构形式很多,可根据散热与电磁兼容性的要求综合考虑。 开设通风孔的基本堆则有: ①通风孔的开设要有利于气流形成有效的自然对流通道; ②由于气体受热后膨胀,一般情况下, 出风孔面积应稍大于进风孔面积; ③进风孔尽量对准发热元器件;

数据中心散热技术发展现状

北京中元智盛市场研究有限公司

目录 数据中心散热技术发展现状 (2) 第一节中国数据中心散热行业主流散热方式 (2) 第二节新兴数据中心散热方式分析 (2) 第三节中国数据中心散热方式发展趋势分析 (4) 第四节数据中心散热的代价与收益 (5) 1

数据中心散热技术发展现状 第一节中国数据中心散热行业主流散热方式 目前中国数据中心散热行业所采用的散热方式或者原理不外乎两种: 1、空气冷却直接膨胀系统亦成为风冷,空气冷却的计算机房空调广泛应用于各种规模的IT环境,并且已经使他们确立了在小型和中型计算机房中的“主流产品”的地位。这类产品也经常称为“DX”系统或分体系统,“DX”表示直接膨胀,尽管这个术语也经常指空气冷却的系统,但事实上,任何使用制冷剂和蒸发盘管的系统都可以称为“DX”系统。在一套空气冷却系统中,半数的制冷剂循环回路位于计算机房空调(也称为一个CRAC单元)中,而其余的部分位于室外的空气冷却冷凝器中。室内和室外组件之间的制冷剂在管路中的循环路线称为制冷剂管路。从IT环境来的热量通过使用这个制冷剂循环流动的管路被“泵”到室外的环境中。热空气将热量传递给蒸发器盘管,进而传递给制冷剂,高温高压的制冷剂被压缩机送至室外的冷凝器,然后将热量散发到室外的大气中。 2、为了解决高热密度机柜中的热点问题,一些数据中心已经开始转向到液体冷却了。最常用的液体冷却技术称为紧耦合制冷,需要用管道将冷冻液(通常为水或乙二醇)输送到高架地板之上或者直接把冷冻液输送到机柜内部,然后通过风和冷冻液之间的热交换达到给机柜内部降温的目的。 第二节新兴数据中心散热方式分析 1、矿物油散热技术 油冷散热其实是从水冷进化而来。相较于传统的水冷方式,油冷能够进一步降低能耗。比如,加州大学的Flometrics Chilldyne酷弗洛负压液体冷却系统,吸取了NASA对火箭发动机和固定热插拔连接器进行冷却的灵感,也就是通过负液压系统隔离单个服务器。这套系统比传统的液冷方式能够降低25%-35%的能耗。而更早之前,Intel曾联合一家名为Green Revolution Cooling的公司,设计出一套采用矿物油进行降温的方案。 如果采用矿物油冷却技术,那么传统风冷所面对的灰尘问题不复存在,且能 2

技术术语-数据中心及网络设计

·POD (Point of delivery) POD作为数据中心基本物理设计单元,通常包含服务器机柜、接入网络机柜、汇聚网络柜、以及相应的空调、UPS等弱电配套设施。 灵活易扩展,提高投资利用率,提高能源利用率,适应于计算虚拟化需求。 基于POD模块化设计的IDC物理布局。 汇聚区域(POD):由多个重复的POD组成。每个POD包括服务器,存储和网络设备,完成一种戒者多种业务。 核心区域:连接多个POD,包括核心交换机,出口路由器等设备。 ·IGP设计 内部网关协议 用于自治系统中的一种路由协议。最常用的内部网关协议包括路由信息协议(RIP)、开放最短路径优先协议(OSPF)和中间系统到中间系统路由协议(IS-IS)。 ·ToR接入 架顶模式 是数据中心服务器机柜布线的方式。采用TOR方式布线时,每个服务器机柜的上端部署1~2台接入交换机,服务器直接接入机柜内的交换机上,交换机上行端口通过网线、光纤、铜缆接入到网络机柜中的汇聚交换机上。当采用是TOR方式布线时,汇聚交换机又被称为机架交换机。 ·EoR接入 是数据中心服务器机柜布线的方式。采用EOR布线方式时,每排或每两排机柜的最边端摆放2个网络机柜,其他机柜作为服务器机柜安装配线架,配线架上的网线、光纤、铜缆延伸到最边端的网络机柜上,网络机柜中安装接入交换机。服务器在服务器机柜中,服务器网卡通过跳线连接机柜中的配线架。当采用是EOR布线方式时,汇聚交换机又被称为行间交换机。 ·MOR ·OSPF 开放式最短路径优先 开放式最短路径优先是在Internet团体中作为RIP(路由选择信息协议)的后继者而提议的链路状态分层IGP(内部网关协议)路由选择算法。OSPF具有最低代价路由选择、多路径路由选择和负载平衡等特点。OSPF是从IS-IS协议的早期版本演变而来的。另参见IS-IS。 ·OSPF动态协议 ·OSPF区域(Area0,1,2…N) ·BGP BGP是一种用于域间的动态路由协议。当BGP运行于同一自治系统内部时,被称为IBGP;当BGP运行于不同自治系统之间时,称为EBGP。

数据中心网络高可用技术

dstandardizati onofsafetyproducti on,a ndstrivetoachieve"intri nsicallysafe".Ninethpit safetysecti ona ndisaunitofsecurityofficersre sponsi bleformine safetydutie sandsupervisetheimpl ementationofthefoll ow-upt o,andimpleme ntationofthesystem,prose cuti on.PartImanagementsystems...Y ouca nusebrazi erswhe n,2--3metersfromthegrounda ndputt hefireout beforethew ork,confirmthe nofirebeforetheyca nleave;Highway11non-staffinthemarginw ithin50m,radi usofthe excavationw ork,a ndw orkingwit hin6metresofthee dgeandstayundert heum brellaheadi ng;12,blasti ngintot hepit personnelmustfoll owthe shooti ngguar d'scommand,hi detosafety;13non-miningve hicles(includingbicycle s,a nimal-drawnvehicle,m otorvehicles,etc)will beba nne dfromenteri ngthe pitsandot herpr oductionarea onpainofheavyfines,resulti ngina cci dentst obei nvestigatedforresponsi bility;14shooti ngthefoll owi ngmechanicalsafetydistancesa sfollow s:categ orynameme cha nical cannonsshall owholesa ndpopshooti ngexpose dblasti ngunits:metersdiggin gmachinerigcargunpowder othere qui pment-pitequipme nt,especi allyanel ectrica lswitchandavarietyofsafetydevi ces,i nadditiont ospecifyingt heuseofresponsi blepersonnel,ba nanytouching ofother personnel;16foundthat powerli nesorca blesbreakinggr oundbeforewithouta scertai ningw hethert hecharged,prohi bitsa nyonefromtouching,andshouldleave5metersaway,andimmediatelynotifytheper sonchecki ng;17withoutthel eadership'sconsent,are notall owedt otakethestrippedtr uck s,watertankers,oilta nkers,asare sultoftheca 数据中心网络高可用技术 高可用性,金融数据中心建设中最受关注的问题之一。高可用性设计是个系统 工程,其内容涉及构成数据中心的四个组成要素(网络、计算、存储、机房基 础设施)的多方面内容,本文聚焦网络系统,阐述了多种网络高可用技术在数 据中心的部署最佳实践。 一、高可用性的定义 系统可用性(Availability)的定义公式为: Availability =MTBF / ( MTBF + MTTR ) ×100% MTBF(Mean Time Between Failure),即平均无故障时间,是描述整个系统可靠性(reliability)的指标。对于一个网络系统来说,MTBF是指整个网络的各组件(链路、节点)不间断无故障连续运行的平均时间。 MTTR(Mean Time to Repair),即系统平均恢复时间,是描述整个系统容错能力(fault-tolerant capability)的指标。对于一个网络系统来说,MTTR是指当网络中的组件出 现故障时,网络从故障状态恢复到正常状态所需的平均时间。 从公式可看出,提高MTBF或降低MTTR都能提高网络可用性。造成数据中心网络不可用 的因素包括:设备软硬件故障、设备间链路故障、维护升级、用户误操作、网络拥塞等事 件。针对这些因素采取措施,如提高软硬件质量、减少链路故障、避免网络拥塞丢包、避 免用户误操作等,使网络尽量不出故障、提高网络MTBF指标,也就提升了整网的可用性 水平。然而,网络中的故障总是不可避免的,所以设计和部署从故障中快速回复的技术、 缩小MTTR指标,同样是提升网络可用性水平的手段。 在网络出现故障时,确保网络能快速回复的容错技术均可以归入高可用技术。常用的网络 高可用技术可归为以下几类: 单设备的硬件冗余:冗余电源、冗余风扇、双主控、板卡支持热插拔; 物理链路捆绑:以太网链路聚合,基于IRF的跨设备以太网链路聚合; 二层冗余路径:STP、MSTP、SmartLink; 三层冗余路径:VRRP、ECMP、动态路由协议多路径; 故障检测:NQA、BFD、OAM、DLDP; 不间断转发:GR、热补丁升级; L4-L7多路径:状态热备、非对称路径转发。 在进行高可用数据中心网络规划时,不能只将上述技术进行简单叠加和无限制的冗余,否 则,一方面会增加网络建设整体成本,另一方面还会增加管理维护的复杂度,反而给网络 引入了潜在的故障隐患。因此在进行规划时,应该根据网络结构、网络类型和网络层次, 分析网络业务模型,确定数据中心基础网络拓扑,明确对网络可用性最佳的关键节点和链 路,合理规划和部署各种网络高可用技术。 二、数据中心网络高可用部署方案

热设计基础

热设计基础(一):热即是“能量”,一切遵循能量守恒定律 在开发使用电能的电子设备时,免不了与热打交道。“试制某产品后,却发现设备发热超乎预料,而且利用各种冷却方法都无法冷却”,估计很多读者都会有这样的经历。如果参与产品开发的人员在热设计方面能够有共识,便可避免这一问题。下面举例介绍一下非专业人士应该知道的热设计基础知识。 “直径超过13cm,体积庞大,像换气扇一样。该风扇可独立承担最大耗电量达380W的PS3的散热工作”。 以上是刊登在2006年11月20日刊NE Academy专题上的“PlayStation3”(PS3)拆解报道中的一句话。看过PS3内像“风扇”或“换气扇”一样的冷却机构,估计一定会有人感到惊讶。 “怎么会作出这种设计?” “这肯定是胡摸乱撞、反复尝试的结果。” “应该运用了很多魔术般的最新技术。” “简直就是胡来……” 大家可能会产生这样的印象,但事实上并非如此。 PS3的冷却机构只是忠实于基础,按照基本要求累次设计而成。既没有胡摸乱撞,也不存在魔术般的最新技术。

在大家的印象里,什么是“热设计”呢?是否认为像下图一样,是“一个接着一个采取对策”的工作呢?其实,那并不能称为是“热设计”,而仅仅是“热对策”,实际上是为在因热产生问题之后,为解决问题而采取的措施。 如果能够依靠这些对策解决问题,那也罢了。但是,如果在产品设计的阶段,其思路存在不合理的地方,无论如何都无法冷却,那么,很可能会出现不得不重新进行设计的最糟糕的局面。 而这种局面,如果能在最初简单地估算一下,便可避免发生。这就是“热设计”。正如“设计”本身的含义,是根据产品性能参数来构想应采用何种构造,然后制定方案。也可称之为估计“大致热量”的作业。 虽说如此,但这其实并非什么高深的话题。如果读一下这篇连载,学习几个“基础知识”,制作简单的数据表格,便可制作出能适用于各种情况的计算书,甚至无需专业的理科知识。 第1章从“什么是热”这一话题开始介绍。大家可能会想“那接下来呢”?不过现在想问大家一个问题。热的单位是什么? 如果你的回答是“℃”,那么希望你能读一下本文。 热是能量的形态之一。与动能、电能及位能等一样,也存在热能。热能的单位用“J”(焦耳)表示。1J能量能在1N力的作用下使物体移动1m,使1g的水温度升高0.24℃。

电子产品散热技术最新发展(上)

堇查壁蔓ij三翌隧阉固电子产品散热技术最新发展(上) 最近几年LSI、数码相机、移 动电话、笔记本电脑等电子产品. 不断朝高密度封装与多功能化方向发展.散热问题成为非常棘手的课题。LSI等电子组件若未作妥善的散热处理.不但无法发挥LSI的性能.严重时甚至会造成机器内部的热量暴增等。然而目前不论是LSI组件厂商.或是下游的电子产品系统整合业者.对散热问题大多处于摸索不知所措的状态.有鉴于此.介绍一下国外各大公司散热对策的实际经验.深入探索散热技术今后的发展动向.是很有必要的=.散热技术的变迁 如图1所示由于“漏电”问题使得LSI的散热对策是系统整合的责任.这种传统观念正面临极大的变革。此处所谓的漏电是指晶体管(仃彻sjs【or)的source与drain之间.施加于leal(电流的电源电压大晓而言。理论上leak电力会随着温度上升不断增加.如果未有效抑制热量意味着1eal【电力会引发更多的热量.造成1eak电力持续上升恶性循环后果。 以Intel新推出的微处理器“ni唧process)而言,它的消费电力之中60%~70%是属于1eak电力+一般认为未来1~2年leak电力仍然扮演支配性角色。 图1电子组件散热对策的变化趋势 高弘毅 在此同时系统整合业者.由于 单位体积的热最不断膨胀.使 得如何将机器内部的热量排除 更是雪上加霜.因此系统整合 业者转因而要求LsI组件厂商, 提供有效的散热对策参考模式, 事实上Imel已经察觉事态的严重 性,因此推出新型微处理器的 同时.还提供下游系统整合业 者有关LsI散热设计的model case.因此未来其他电子组件厂 商未来势必跟进。 如上所述LSI等电子组件的散 热对策.成为电子业界高度嘱目 焦点.主要原因是电子产品性能 快速提升所造威。以往计算机与 数字家电业者大多忽视漏电电力 问题的存在.甚至采取增加电力 的手法补偿漏电电力造成的损失, H…1U¨o『¨Ⅸ■} ◆以往:委由系统业者自行处理 今后:组件厂商夸力支持 可再啄■面i而n22.  万方数据

云数据中心运维问题解析

云数据中心运维问题 解析 Revised on November 25, 2020

1、云计算时代的到来,数据中心的运行管理工作必然会产生新的问题,提出新的要求,您认为,数据中心运维工作发生了哪些改变云计算是当下的技术热点,云数据中心是提供云计算服务的核心,是传统数据中心的升级。 无论是传统的数据中心,还是云数据中心,从他们的生命周期来看,运维管理都是整个生命周期中历时最长的一个阶段。 云数据中心的运维工作需要我们仔细分析,认真对待。从开源云计算社区openstack发布的模块来看,截止2014年11月,社区共有项目模块450个左右,模块数量前三的类型是“运维”、“易用性”、“上层服务”,其中运维模块数量第一,占到了153个。可见云计算的技术动向基本上围绕“如何运维”和“如何使用”。 我们今天的话题就先来说一说云数据中心运维的变化。说到云数据中心运维工作的变化,就要分析云的特点。云时代数据中心最明显的特点就是虚拟化技术的大量应用,这使得运维管理的对象发生了变化: 一、云数据中心运维对象数量激增。虚拟化技术将1台物理服务器虚拟为多台虚拟服务器,如果数据中心支撑业务需求规模不变的话,所需要的物理服务器数量将会减少,这与很多人认为的运维服务器数量激增是不符的,那么这个“激增”认识是如何产生的呢。可以这样分析,由于虚拟化技术进一步提高了数据中心各种资源的使用效率,同时大幅提高了业务需求响应能力,所以多个传统数据中心合并为一个云数据中心在技术上成为了可能。很多跨国企业采用云计算技术,实现数据中心10:1到20:1的合并效果,也就是说如果原来在全

球建设1000个数据中心,那么现在可以由50到100个云数据中心实现对业务的支撑,在一个合并后的云数据中心内,所要运维的服务器数量绝对可以称得上“激增”,这里所说的服务器既包括物理服务器也包括虚拟服务器。与此同时,运维岗位也就是运维人员虽然也进行了调整,但是人员增加的幅度远低于设备的增涨幅度,也就是人均运维设备数量增加了很多,在这种情况下,如果不借助工具、系统,很难完成运维工作。 二、在传统数据中心中,设备都是物理的、真实的,位置也是相对固定,对业务系统来讲,交换网络、服务器、存储设备对象之间关联也是比较固定的,管理起来相对直观。在云数据中心,虚拟化带来了资源的池化,使得一切管理对象变成虚拟的、可灵活迁移的逻辑存在。虚拟资源可以随时创建、删除,再加上高可用需求、性能优化需求带来的虚拟资源迁移,虚拟资源所在的位置变得不固定了,虚拟资源与物理资源的关系也被解耦了,原来很多能说得清、找得到的资源现在不借助工具就再也无法说得清、找得到了。 三、在传统数据中心中,设备监控主要是采集故障、性能数据,容量一般来讲还不是运维层面的问题,而是规划的问题,当然这也带来了业务系统竖井、数据中心竖井的问题,以及业务资源申请周期长的问题。在云数据中心中,容量不仅是规划问题,同时也是一个运维问题。也就是说,在日常工作中,需要随时采集资源池容量数据,不仅要看资源池的总容量,还要看容量在各个物理宿主机上分布情况,以便满足高可用和迁移的需要。 四、云数据中心在管理虚拟设备时,接口的标准化问题。在传统数据中心内,物理设备已经形成了接口标准,提供运维数据,如snmp、netflow等。而对虚拟化设备,还没有形成国标或行标,对虚拟设备的运维还需要采用厂家标

腾讯数据中心建设需求

腾讯科技(深圳)有限公司 名称运营商(或其他合建方)合建数据中心设计需求书 编号版本号0.03 密级机密 拟制Bruceyang 审核批准 运营商(或其他合建方)合建数据中心设计需求书 Version 0.03 修订信息 更改日期部门及更改人版本号版本说明 2010-3-18 DIS/Bruceyang 0.01 初稿 2010-12-26 DIS/Bruceyang 0.02 11页,修改末端配电要求 2011-9-16 DIS/Tuoczhu 0.03 11页,12页,20页,增加PDU/机柜要求

保密声明 本文档(包括其附件)可能包含受保密协议或其他权利保护的机密信息,仅提供给指定的接收者或者因既定目的有必要知道的人。在未经得腾讯许可前,接收人不得擅自对外披露。如非指定接收者,则任何使用、传播、发送或复制本文档的行为均不被许可或为非法。

目录 保密声明 (2) 1.摘要 (5) 1.1背景 (5) 1.2需求要点 (5) 1.3适用范围 (5) 1.4适用人员 (6) 1.5定义与缩略语 (6) 2.结构、空间及平面 (7) 2.1.结构 (7) 2.2.空间 (8) 2.3.平面 (8) 3.电气系统 (9) 3.1.市电接入 (9) 3.2.柴油发电机 (9) 3.3.低压配电 (9) 3.4.UPS (10) 3.5.末端精密配电 (11) 3.6.接地 (12) 3.7.静电防护 (12) 4.空调系统 (13) 4.1.冷冻水系统 (13) 4.2.精密空调(CRAC) (14) 4.3.气流组织 (14) 4.4.给排水 (14) 5.消防系统 (15) 5.1.系统形式 (15) 5.2.一般要求 (15) 6.弱电集成监控系统 (16) 6.1.系统结构 (16)

电子产品热设计

目录 摘要: (2) 第1章电子产品热设计概述: (2) 第1.1节电子产品热设计理论基础 (2) 1.1.1 热传导: (2) 1.1.2 热对流 (2) 1.1.3 热辐射 (2) 第1.2节热设计的基本要求 (3) 第1.3节热设计中术语的定义 (3) 第1.4节电子设备的热环境 (3) 第1.5节热设计的详细步骤 (4) 第2章电子产品热设计分析 (5) 第2.1节主要电子元器件热设计 (5) 2.1.1 电阻器 (5) 2.1.2 变压器 (5) 第2.2节模块的热设计 (5) 电子产品热设计实例一:IBM “芯片帽”芯片散热系统 (6) 第2.3节整机散热设计 (7) 第2.4节机壳的热设计 (8) 第2.5节冷却方式设计: (9) 2.5.1 自然冷却设计 (9) 2.5.2 强迫风冷设计 (9) 电子产品热设计实例二:大型计算机散热设计: (10) 第3章散热器的热设计 (10) 第3.1节散热器的选择与使用 (10) 第3.2节散热器选用原则 (11) 第3.3节散热器结构设计基本准则 (11) 电子产品热设计实例三:高亮度LED封装散热设计 (11) 第4章电子产品热设计存在的问题与分析: (15) 总结 (15) 参考文献 (15)

电子产品热设计 摘要: 电子产品工作时,其输出功率只占产品输入功率的一部分,其损失的功率都以热能形式散发出去,尤其是功耗较大的元器件,如:变压器、大功耗电阻等,实际上它们是一个热源,使产品的温度升高。因此,热设计是保证电子产品能安全可靠工作的重要条件之一,是制约产品小型化的关键问题。另外,电子产品的温度与环境温度有关,环境温度越高,电子产品的温度也越高。由于电子产品中的元器件都有一定的温度范围,如果超过其温度极限,就将引起产品工作状态的改变,缩短其使用寿命,甚至损坏,使电子产品无法稳定可靠地工作。 第1章电子产品热设计概述: 电子产品的热设计就是根据热力学的基本原理,采取各种散热手段,使产品的工作温度不超过其极限温度,保证电子产品在预定的环境条件下稳定可靠地工作。 第1.1节电子产品热设计理论基础 热力学第二定律指出:热量总是自发的、不可逆转的,从高温处传向低温处,即:只要有温差存在,热量就会自发地从高温物体传向低温物体,形成热交换。热交换有三种模式:传导、对流、辐射。它们可以单独出现,也可能两种或三种形式同时出现。 1.1.1 热传导: 气体导热是由气体分子不规则运动时相互碰撞的结果。金属导体中的导热主要靠自由电子的运动来完成。非导电固体中的导热通过晶格结构的振动实现的。液体中的导热机理主要靠弹性波的作用。 1.1.2 热对流 对流是指流体各部分之间发生相对位移时所引起的热量传递过程。对流仅发生在流体中,且必然伴随着有导热现象。流体流过某物体表面时所发生的热交换过程,称为对流换热。 由流体冷热各部分的密度不同所引起的对流称自然对流。若流体的运动由外力(泵、风机等)引起的,则称为强迫对流。 1.1.3 热辐射 物体以电磁波方式传递能量的过程称为热辐射。辐射能在真空中传递能量,且有能量方

散热基本理论分析

散热基本理论分析 【摘要】文章主要介绍散热基本理论,指出散热的三种主要方式,分别为导热、对流换热和辐射换热。三种散热方式在各行各业中的应用各有侧重,对流换热是计算机中最为主要的散热手段,辐射换热是各种高温热力设备中的重要换热方式,而对于TV背光系统,导热是最主要的散热方式。 【关键词】散热背光导热对流辐射 一、散热基本理论 热量的传递有导热、对流换热和辐射换热三种方式。导热指物体内的不同部位因温差而发生的传热,或不同温度的两个物体因直接接触而发生的传热,是最直接和常用的散热方式;对流换热指流体与温度不同的物体表面接触时,对流和导热联合起作用的传热,我们常见的风扇就是利用对流换热原理加快流体流动速度而进行散热。辐射换热指的是两个互不接触且温度不同的物体或介质之间通过电磁波进行的换热,这是各种工业炉、锅炉等高温热力设备中重要的换热方式。 二、导热 导热--物体内的不同部位因温差而发生的传热,或不同温度的两物体因直接接触而发生的传热。从定义中我们不难看出,无论是物体内部的热量传递还是物体与其他物体之间的热量传递都属于导热,传导过程中传递的热量按照Fourier(傅里叶)导热定律计算:Q=λA( Th-Tc)/ξ。其中λ指的是材料的导热系数,A指的是两个物体的接触面积,Th和Tc分别指的是高温和低温面的温度,ξ为两个面之间的距离。 从公式中不难看出导热的效果与材料的导热系数、接触面积和温差成正比,与两个面之间的距离成反比。 导热系数单位为W/(m*℃)表示了该材料的导热能力的大小,一般来说固体的导热系数大于液体,液体的导热系数大于气体,例如纯铜的导热系数高达400W/(m*℃),纯银的导热系数约为236W/(m*℃),水的导热系数就只有0.6W(m*℃),而空气的导热系数更仅仅为0.025W(m*℃)。铝的导热系数高而且密度低,所以大多数的散热器都使用铝合金材料,当然如果为了提供散热性能,可以在铝条上增加铜成分或者使用铜散热器,但代价相对较大,因为铜的价格相对昂贵。 图1.导热 三、对流换热 对流换热--流体与温度不同的物体表面接触时,对流和导热联合起作用的传热,这是计算机系统设备上应用最为广泛的一种散热模式。根据流动的起因不同,对流换热可分为强制对流换热和自然对流换热。

数据中心被动式散热解决方案(前沿技术)

数据中心被动式散热解决方案 通向绿色数据中心之路 张愚

目录 前言 (3) 数据中心散热基础 (3) 数据中心散热管理基线-隔离冷热空气 (4) 方案一:冷池和热池 (4) 方案二:垂直排风管机柜 (5) 通向绿色数据中心之路-垂直排风管机柜 (6) 1.防止无效的冷送风浪费现象 (6) 2.提高空调机热回风温度来提高空调制冷性能 (8) 3.提高空调机冷送风温度 (8) 总结 (9) 参考文献 (11)

前言 随着每一代新的计算机设备的计算能力和功率能耗的大幅度提高,传统数据中心如何增加每机柜的功率密度也变得越来越重要了。Intel的研究表明,同样的计算能力在2002年时需要25个机柜和128KW的能耗(5.1KW/每机柜),但在2008年时只需一个机柜和21KW的能耗(21KW/每机柜)。对比之下,我们节省了107KW的能耗,并且也大大节省了数据中心的物理大小和结构。 这种大幅度的计算能力的提升主要是得益于虚拟计算,内存系统,多核CPU系统,CPU速度和GPGPU 技术的飞速发展。虚拟计算大大提高了服务器的使用效率,从而直接增加单个机柜的发热密度。随着内存容量和速度的飞速发展,最新的DRAM技术是的内存的发热量也大大的提升。工程和科学研究等应用大量使用图形浮点运算,GPGPU使得显卡的发热量从25 W 提高到300 W 以上。虽然服务器的功耗持续不断的提高,但是性能和功耗比不断的下降。从以上的例子可以看出,如果数据中心空调系统能够高效的对机柜进行冷却,我们将会大大减少数据中心的总能耗,从而在本质上我们可以真正拥有一个绿色数据中心。 提高空调的制冷效率并节约能源只是数据中心管理的重要一部分,然而每机柜的热密度不停的增加则带给我们更多的挑战。目前全球数据中心的每机柜的平均热密度大概为6.5KW, 但是ASHRAE2预测在2014年数据中心平均每机柜所需的制冷量为37KW。这种5倍的热密度的飞跃需要我们对数据中心不断的革新来解决。本文将对被动式散热解决方案进行介绍,以及在数据中心中如何利用该技术实现绿色节能数据中心。 数据中心散热基础 首先,我们将对数据中心散热做一个基本的研究。IT设备散热所需的风量可用下列等式来表明 M3/H = 2.9W÷ΔT 其中M3/H 为机柜中的设备散热所需的风量(立方米冷风/每小时) W=瓦特数(IT设备的功耗) △T=IT设备的温差(设备回风温度减去设备的进风温度) 该等式也表明了机柜的散热能力直接和高架地板送风地板的送风能力有着密不可分的关系。由于高架送风地板所送的冷风风量的不足够,在机柜上部的IT设备进风风扇所造成的负压会将机柜后部热通道中的热空气抽入IT设备中,从而造成服务器过热的问题。 研究也表明在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。目前,传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单,有效的方法就是将冷热空气物理隔离开。

电子产品散热设计

YEALINK 产品热设计 VCS项目散热预研 欧国彦 2012-12-4 电子产品的散热设计 一、为什么要进行散热设计 在调试或维修电路的时候,我们常提到一个词“**烧了”,这个**有时是电阻、有时是保险丝、有时是芯片,可能很少有人会追究这个词的用法,为什么不是用“坏”而是用“烧”其原因就是在机电产品中,热失效是最常见的一种失效模式,电流过载,局部空间内短时间内通过较大的电流,会转化成热,热**不易散掉,导致局部温度快速升高,过高的温度会烧毁导电铜皮、导线和器件本身。所以电失效的很大一部分是热失效。 高温对电子产品的影响:绝缘性能退化;元器件损坏;材料的热老化;低熔点焊缝开裂、焊点脱落。 温度对元器件的影响:一般而言,温度升高电阻阻值降低;高温会降低电容器的使用寿命;高温会使变压器、扼流圈绝缘材料的性能下降,一般变压器、扼流圈的允许温度要低于95C;温度过高还会造成焊点合金结构的变化—IMC增厚,焊点变脆,机械强度降低;结温的升高会使晶体管的电流放大倍数迅速增加,导致集电极电流增加,又使结温进一步升高,最终导致元件失效。 那么问一个问题,如果假设电流过载严重,但该部位散热极好,能把温升控制在很低的范围内,是不是器件就不会失效了呢答案为“是”。 由此可见,如果想把产品的可靠性做高,一方面使设备和零部件的耐高温特性提高,能承受较大的热应力(因为环境温度或过载等引起均可);另一方面是加强散热,使环境温度和过载引起的热量全部散掉,产品可靠性一样可以提高。 二、散热设计的目的 控制产品内部所有电子元器件的温度,使其在所处的工作环境条件下不超过标准及规范所规定的最高温度。最高允许温度的计算应以元器件的应力分析为基础,并且与产品的可 热设计、冷却方式、散热器、热管技术

技术讲座--热设计基础

【技术讲座】热设计基础(一):热即是“能量”,一切遵循能量守恒定律 在开发使用电能的电子设备时,免不了与热打交道。“试制某产品后,却发现设备发热超乎预料,而且利用各种冷却方法都无法冷却”,估计很多读者都会有这样的经历。如果参与产品开发的人员在热设计方面能够有共识,便可避免这一问题。下面举例介绍一下非专业人士应该知道的热设计基础知识。 “直径超过13cm,体积庞大,像换气扇一样。该风扇可独立承担最大耗电量达380W的PS3的散热工作”。 以上是刊登在2006年11月20日刊NE Academy专题上的“PlayStation3”(PS3)拆解报道中的一句话。看过PS3内像“风扇”或“换气扇”一样的冷却机构,估计一定会有人感到惊讶。 “怎么会作出这种设计?” “这肯定是胡摸乱撞、反复尝试的结果。” “应该运用了很多魔术般的最新技术。” “简直就是胡来……” 大家可能会产生这样的印象,但事实上并非如此。 PS3的冷却机构只是忠实于基础,按照基本要求累次设计而成。既没有胡摸乱撞,也不存在魔术般的最新技术。 在大家的印象里,什么是“热设计”呢?是否认为像下图一样,是“一个接着一个采取对策”的工作呢?其实,那并不能称为是“热设计”,而仅仅是“热对策”,实际上是为在因热产生问题之后,为解决问题而采取的措施。

如果能够依靠这些对策解决问题,那也罢了。但是,如果在产品设计的阶段,其思路存在不合理的地方,无论如何都无法冷却,那么,很可能会出现不得不重新进行设计的最糟糕的局面。 而这种局面,如果能在最初简单地估算一下,便可避免发生。这就是“热设计”。正如“设计”本身的含义,是根据产品性能参数来构想应采用何种构造,然后制定方案。也可称之为估计“大致热量”的作业。 虽说如此,但这其实并非什么高深的话题。如果读一下这篇连载,学习几个“基础知识”,制作简单的数据表格,便可制作出能适用于各种情况的计算书,甚至无需专业的理科知识。 第1章从“什么是热”这一话题开始介绍。大家可能会想“那接下来呢”?不过现在想问大家一个问题。热的单位是什么? 如果你的回答是“℃”,那么希望你能读一下本文。 热是能量的形态之一。与动能、电能及位能等一样,也存在热能。热能的单位用“J”(焦耳)表示。1J能量能在1N力的作用下使物体移动1m,使1g的水温度升高0.24℃。

数据中心网络架构

数据中心网络架构 7.6.2.3.1、网络核心 网络核心由2台双引擎万兆交换机构成,通过千兆实现各个功能分区的接入,同时交换机之间采用双千兆捆绑的方式实现高速互联。 为了保证各个功能分区的高可靠性,与各个功能分区的汇聚交换机或接入交换机采用双链路冗余连接。 网络为二层架构,要采用千兆接入层交换通过千兆线路上行到两台核心交换层交换机。服务器接入采用双网卡千兆上行,接入交换机采用万兆上行到核心交换机。 应急信息系统对网络安全、信息安全有着很高的要求,因此通过合理的防火墙、IPS和ASE部署,可以使网络对非法请求、异常攻击和病毒具有非常好的防御,同时可以对各种敏感和非法信息、网址和电子邮件进行有效的过滤。 7.6.2.3.2、全交换网络 建议采用全交换网络来保证网络的高性能。应急指挥中心服务器群规模不大,网络结构采用两层交换机即可。 在核心汇聚层采用高性能核心交换机,未采用路由器,主要的考虑基于以下两点: (1)交换机性能高,接口密度高,适合在数据中心的核心位置部署;相比而言路由器的性能和接口密度则远低于交换机; (2)交换机设备工作在二层,业务扩展灵活方便;

7.6.2.3.3、服务器接入的二层模式 在工作模式上,核心汇聚交换机工作在路由模式(三层),服务器接入层交换机工作在交换(二层)模式。 三层接入的好处在于配置管理相对简单,上行汇聚设备的报文比较“纯净”,都是单播报文。而三层接入的问题主要在服务器扩展性、灵活性以及L4/L7设备的部署上。 对于应急系统来说,服务器的扩展能力是一个非常重要的问题,在实际的部署中,经常会要求服务器之间做二层邻接,如果采用二层接入,可以很方便的实现VLAN的部署。 三层接入带来的另一个问题是L4/L7设备(如服务器Load-Balacne)的部署。Load-Balance通常部署在汇聚层,可以实现对服务器访问流量的分担,以及服务器健康状态的检查,对于某些负载均衡算法或服务器健康检查算法来说,必须要求服务器和Load-balance设备二层邻接,因此数据中心不建议采用三层接入。 对于二层接入方式,可以通过MSTP或SmartLink技术解决链路冗余问题。在MSTP中,端口的阻塞是逻辑上的,只对某些STP实例进行阻塞,一个端口可能对一个STP实例阻塞,但对另一个STP实例是可以转发的。合理的使用MSTP,可以做到链路的负载分担。而且,因为映射到一个MSTP实例的VLAN 可以灵活控制,并且引入了域的概念,使得MSTP在部署时有很好的扩展性。SmartLink提供了一种二层链路冗余技术,可以部分替代STP的功能,并且保证200毫秒的链路切换时间,可应用在HA要求较高的环境。 因此建议在数据中心的服务器区采用二层接入方式。 根据应急指挥应急指挥系统的需求,数据中心由以下几个功能区组成: (1)核心网络区: 由高速网络交换机组成,提供核心交换能力,同时部署安全和应用优化设备,保证数据安全和系统性能。 (2)核心数据库区: 由运行HA 系统的高效UNIX 主机组成,提供数据高速访问能力(3)应用区:

相关文档
最新文档