分析数据中心机房PUE值偏高问题及解决方案
pue保障方案

PUE(Power Usage Effectiveness,电源使用效率)是用来衡量数据中心能效的重要指标,通常用于评估数据中心的绿色环保性能。
为了提高数据中心的PUE值,我们可以采取以下保障方案:
1. 优化设备布局和散热设计:数据中心内的设备数量众多,且设备运行时会产生热量。
因此,合理的设备布局和散热设计可以有效降低设备温度,提高设备运行效率,从而降低能源消耗。
2. 使用高效电源和制冷设备:高效电源和制冷设备是提高PUE值的关键。
我们可以选择使用低能耗的电源设备,如高效的UPS、开关电源等;同时,采用先进的制冷设备,如水冷服务器、冰蓄冷等,可以有效降低数据中心温度,提高设备运行效率。
3. 实施智能化能源管理:通过安装智能电能监测管理系统、能源消耗分析系统等,可以实时监测数据中心的能源消耗情况,并采取相应的措施降低能源消耗。
此外,还可以通过远程监控和自动化控制,实现数据中心的智能化管理。
4. 推广清洁能源:在条件允许的情况下,我们可以使用清洁能源(如太阳能、风能等)来替代传统能源,降低数据中心的碳排放量。
5. 提高员工节能意识:加强员工节能意识的培训和教育,可以提高员工在日常工作中的节能意识,减少能源浪费。
6. 采用虚拟化技术:虚拟化技术可以实现数据中心的资源整合和高效利用,减少硬件资源的浪费,从而降低能源消耗。
7. 定期维护和检修:定期对数据中心内的设备进行维护和检修,可以及时发现和解决设备故障,避免因设备故障导致的能源浪费。
综上所述,通过以上保障方案的实施,可以有效提高数据中心的PUE值,降低能源消耗和碳排放量,实现绿色环保的数据中心建设。
基站及小机房全年动态PUE分析方案

一、背景及意义基站及小机房作为通信设备的重要组成部分,其能效水平对整个通信网络的运营效率和能源消耗等方面有着重要影响。
为了优化基站及小机房的能源利用率,降低运营成本,提高设备可靠性,需要进行全年动态PUE (能源使用效率)分析,并制定相应的方案。
PUE是衡量数据中心及通信设备能源利用效率的重要指标,其定义为总能源消耗(包括设备能耗、冷却能耗以及其他能耗)与设备能耗之间的比值。
通过全年动态PUE分析,可以发现和解决基站及小机房能耗问题,优化能源利用模式,提高能源利用效率。
1.数据采集与监测系统建立数据采集与监测系统,用于实时监测基站及小机房的能耗数据,包括设备能耗、冷却能耗以及其他能耗。
可以使用传感器、仪表等设备对能耗数据进行实时采集,并通过网络传输至监测中心进行存储和分析。
2.分时段数据采集对于全年动态PUE分析,需要在一年的不同时间段对能耗数据进行采集。
可以选择不同的季节、不同的天气条件下进行采集,以获得不同情况下的能耗数据。
同时还需要考虑设备的工作模式和负荷情况等因素,对设备能耗进行准确测量和录入。
3.数据分析与整合将采集到的能耗数据进行分析与整合,计算出全年动态PUE的数值。
可以通过计算每个时间段的总能耗和设备能耗,得到相应的PUE值。
同时,可以进行数据的对比和趋势分析,以发现能耗异常和问题,并制定相应的改善措施。
4.能源利用优化方案根据全年动态PUE分析的结果,制定相应的能源利用优化方案。
可以从设备、冷却系统、能源管理等方面入手,优化设备工作方式和工作负荷,改进冷却系统的效率,制定良好的能源管理策略等。
5.实施和监测根据制定的能源利用优化方案,实施相应的措施,并进行实时监测和评估。
可以采用远程监控技术和智能化管理系统,对基站及小机房的能耗情况进行监测和控制,及时发现和解决能耗问题。
三、总结基站及小机房的全年动态PUE分析方案,可以帮助优化能源利用,降低运营成本,提高设备可靠性。
通过建立数据采集与监测系统,对能耗数据进行分析与整合,制定能源利用优化方案,并实施和监测,可以实现对基站及小机房能源利用效率的全面优化。
数据中心能耗指标PUE解析

数据中心pue值对环境影响
01
能源消耗
02
冷却需求
PUE值反映了数据中心的能源效率, 高PUE值意味着更多的能源被消耗, 增加了碳排放和环境污染的风险。
数据中心产生大量的热量,需要有效 的冷却系统来维持设备正常运行。高 PUE值意味着需要更多的冷却能源, 进一步增加能源消耗和碳排放。
03
资源浪费
高PUE值说明数据中心的能源利用率 低,造成能源资源的浪费,不利于可 持续发展。
照明系统能耗
灯具能耗
照明系统是数据中心必要的辅助设施,合 理选择高效节能灯具能够显著降低数据中 心的PUE值。
VS
控制设备能耗
照明系统的控制设备包括开关、调光器等 ,其能耗与数据中心的布局和工作时间密 切相关。
03
数据中心pue值优化方案
数据中心pue值优化方案
• PUE(Power Usage Effectiveness,电源使用效率)是一个衡量数据中心能源效率的指标。PUE值越接近 1,说明数据中心的能源效率越高。PUE值越高,意味着需要更多的电能来支持数据中心的运行,因此降低 PUE值对于提高数据中心的能源效率和降低运营成本至关重要。
数据中心的设备和配置
良好的设计和布局可以减少数据中心的能耗 ,降低pue值。
高性能、高能效的设备和合理的配置可以提 高数据中心的能源效率,降低pue值。
数据中心的运营和维护
数据中心的地理位置和 气候条件
高效的运营和维护可以提高数据中心的能源 利用效率,降低pue值。
选择适宜的地理位置和气候条件可以降低数 据中心的能耗,降低pue值。
数据中心pue值对社会影响
能源成本
数据中心是高能耗行业,能源成本相对较高。高PUE值 意味着更高的能源成本,增加了数据中心的运营压力。
最详尽的数据机房能耗分析及优化建议

数据机房能耗分析及优化建议目录1、如何衡量机房能耗效率 (2)1.1机房能耗效率测量方法 (2)1.2机房能耗数据的采集 (3)2、如何分析机房能耗效率 (4)2.1机房内KPI对比分析 (4)2.1.1对比KPI:耗电量/PUE。
(4)2.1.2对比KPI:PUE/室内温度。
(7)2.1.3对比KPI:PUE/室内湿度。
(9)2.2设备类型分析 (10)2.2.1设备类型分项耗电量统计 (10)2.2.2各类设备占总耗电量比重 (10)2.3 KPI波动分析 (11)2.4 PUE分布统计 (12)2.5能耗费用计算 (12)2.6聚类分析 (13)2.7模型预测值分析 (14)3如何提高机房能耗效率 (14)3.1数据中心设备的合理利用 (15)3.2虚拟化的利用 (16)3.3机柜摆放 (17)3.4 IT设备摆放 (17)3.5最大限度提高冷却效率 (17)3.6增强设备电力管理提高PUE效率 (18)3.6.1提高PUE效率之降低供电能效因子 (19)3.6.2提高PUE效率之减少制冷能效因子 (19)4总结 (20)目前,PUE已经成为国际上比较通行的数据中心电力使用效率衡量指标。
据统计,国外先进的机房PUE值可以达到1.21(Google六座数据中心平均PUE 值为1.21),而我们国家的PUE平均值则在2.5以上,这意味着IT设备每耗一度电,就有多达1.5度的电被机房设施消耗掉了。
特别是中小规模的机房PUE值更高,测量数值普遍在3左右,这说明有大量的电实际都被电源、制冷、散热这些设备给消耗了,而用于IT设备中的电能很少。
据统计,目前国内机房中140平米以下的占50%,400平米以下的占75%左右。
如果按照装机量大致计算,总的全国机房耗电量在100亿度到200亿度。
如果能把PUE降低一个数值,节约的能耗就是33%,大概30到60亿人民币。
可见,数据中心用户的目标是应当将PUE目标值定在2以下,尽可能接近1。
数据中心能效评估及环保解决方案

数据中心能效评估及环保解决方案随着数字化时代的到来,数据中心在支持和推动各个行业的发展中发挥着至关重要的作用。
然而,大规模数据中心的运营不仅消耗大量能源,还对环境造成了不可忽视的影响。
因此,数据中心能效评估及环保解决方案成为了当下亟需解决的问题。
一、数据中心能效评估数据中心能效评估是对数据中心运行效率的测量和评价。
通过对数据中心的能源利用情况进行详细分析,可以发现并解决能源浪费和低效率的问题。
以下是一些常用的数据中心能效评估指标:1. PUE(能源利用效率):PUE是衡量数据中心电力总消耗与IT设备电力消耗之间关系的指标,通过计算数据中心总供电功率与IT设备供电功率之间的比值来确定。
PUE的理想值为1,实际上,大部分数据中心的PUE普遍在1.5-2.0之间。
2. DCIE(数据中心基础设施效率):DCIE是衡量数据中心基础设施能源的利用效率,包括冷却、供电以及UPS等设备的能效。
DCIE等于1除以PUE,用百分比表示。
3. ERE(效能资源效率):ERE是衡量IT设备的能效指标,通过计算数据中心所提供的IT服务能耗与数据中心总能耗的比值来确定。
通过对这些指标进行数据收集和分析,可以评估数据中心的能效状况,并找到改进的潜力所在。
二、环保解决方案在确定数据中心的能效问题后,接下来需要采取一系列环保解决方案来降低能源消耗和减少对环境的影响。
以下是一些建议的解决方案:1. 虚拟化技术:虚拟化技术可以将多台服务器整合到一台物理服务器上,从而提高服务器的利用率,减少能源消耗。
通过虚拟化技术,数据中心可以更高效地管理和调度资源。
2. 节能设备和技术:在数据中心的基础设施方面,可以使用节能型的冷却系统、照明系统和UPS设备等。
此外,通过监控和自动化技术,可以实现对设备的精确控制和调节,以减少能源浪费。
3. 绿色能源供应:选择使用可再生能源,如太阳能和风能等,作为数据中心的能源供应,可以大幅减少对化石燃料的依赖,降低碳排放。
北京地区数据中心能源利用效率(PUE)现场监测及改进措施

北京地区数据中心能源利用效率(PUE)现场监测及改进措施随着信息化和互联网的快速发展,数据中心作为支撑各类应用服务的重要基础设施,越来越受到关注。
然而,数据中心的能源消耗量巨大,给环境带来严重的压力。
如何提高数据中心的能源利用效率成为一个亟待解决的问题。
本文将以北京地区的数据中心为案例,介绍数据中心能源利用效率(PUE)的现场监测及改进措施。
一、数据中心能源利用效率简介PUE是评估数据中心能源效率的一种指标,表示数据中心的总能耗和服务器能耗的比值。
PUE值越低,数据中心的能源利用效率越高。
通常情况下,PUE值大于1,因为除了承载服务器负荷外,数据中心还需要进行冷却、照明和UPS等设备的提供。
因此,数据中心通过优化这些非核心设备的能耗来提高PUE值。
二、现场监测1. 电力消耗监测:通过安装电能监测设备,实时记录数据中心的总用电量。
对于大型数据中心,可以将用电区域进行划分,以便更精确地了解各个区域的电力消耗情况。
2. 空调系统监测:数据中心的空调系统是数据中心能耗的重要组成部分。
通过安装温湿度传感器和电力监测设备,能够实时监测温湿度和空调的能耗情况。
3. 服务器负载监测:利用服务器管理软件,实时监测各台服务器的负载情况,根据负载情况调整服务器的运行状态,以提高能源利用效率。
三、改进措施1. 空调系统优化:优化数据中心的空调系统,提高空调系统的能效比。
可以通过改善空调系统的布局,减少冷热空气的混合,提升冷却效率,从而减少能源消耗。
2. 服务器优化:选择性能更高、能耗更低的服务器设备。
合理规划服务器的布局,减少服务器之间的间隙,以降低冷却能耗,提高服务器利用率。
3. 电力管理技术:通过安装智能电力管理系统,实现对数据中心不同设备的电力管理。
对于未使用或低负载的设备进行电源管理,减少无效能耗。
4. 余热回收利用:利用余热回收技术,将数据中心的余热用于供暖或发电,提高能源利用效率。
5. 虚拟化技术:广泛应用虚拟化技术,通过将多个服务器虚拟化运行在一台物理服务器上,提高服务器的利用率,降低能耗。
数据中心降低PUE值的方法研究

数据中心降低PUE值的方法研究
数据中心的能源消耗一直是一个关注点,其中一个重要的指标是PUE值(能源使用效率)。
PUE值是数据中心所用总能源与服务设备能源的比率,通常情况下PUE值在1.5到3之间。
因此,为了提高数据中心的能源效率和减少能源消耗,我们需要研究降低PUE值的方法。
1. 提高硬件利用率
最常见的方法是提高装置设备的利用率,同时减少冷却装置的空置时间。
优化设备摆放位置和提高机架的使用效率,可以有效地减少能源的消耗,降低PUE值。
2. 优化设备的温度控制
以减少空调的使用时长,对于有效减少PUE值很有帮助。
我们需要找出装置内部的“热通道”,并在相应的区域内增加散热设备,以实现更为有效的冷却。
另外,装置本身的温度调节也应该更为精细,采用双通道并且在冷通道增加荫罩等措施也会大幅度降低PUE值。
3. 优化空气流通
空气流通不畅会导致数据中心产生热点。
通过改善空气流通状况,可以减少热点控制的需要,提高数据中心能源效率。
可以通过增加热排水系统和优化空调系统来实现,达到更低的PUE值。
4. 优化节能部件使用
节能设备往往在硬件的配置上更加节能,通过合理配置节能设
备,我们可以有效地提高数据中心的能源效率,进而降低PUE值。
结论
降低PUE值需要从各个方面入手,通过这四点,我们可以完成数据中心PUE值的优化。
当然,也可以在采购数据中心硬件时直接采用超低电耗机器、高效率空调等设备,这样也会大幅度地减少每右数据中心能耗,并提高能源使用的效率。
数据中心能耗指标PUE解析

VS
国内数据中心能耗现状
我国的数据中心能耗水平普遍偏高,PUE 值较高,节能潜力较大。未来,我国将加 强数据中心节能管理,采取多种措施降低 PUE值,提高数据中心的能源利用效率。
pue值高的原因分析
1 2
数据中心设备效率低下
数据中心内设备的效率低下,如老旧服务器、 非高效制冷系统等,会导致能源浪费。
Pue影响因素
数据中心总耗电量包括IT设备耗电量和非IT设备耗电量(如冷却、照明、供电 等),因此PUE值受到多种因素的影响。
02
数据中心能耗指标pue现 状分析
国内外数据中心能耗情况
国外数据中心能耗现状
国外数据中心在能耗方面已经采取了一系 列的节能措施,包括采用高效能的服务器 、优化数据中心布局、使用高效的制冷系 统等,使得数据中心的PUE值得到了显著 降低。
。
硬件设备节能措施
选用高能效设备
01
选择具有高能效的服务器、网络设备和存储设备等硬件设备,
可以降低数据中心的能耗。
智能电源管理
02
通过智能电源管理技术,如服务器休眠和动态电源管理等,可
以降低硬件设备的能耗。
高效散热设备
03
采用高效散热设备,如液体冷却和热管技术等,可以降低数据
中心的散热能耗。
软件节能措施
05
数据中心能耗指标pue实 际应用案例
某大型互联网公司数据中心优化案例
背景介绍
随着业务规模扩大,数据中心能耗问题日益突出,某大型互联网 公司决定采取措施降低能耗。
实施过程
该公司对数据中心的PUE值进行严格监控,并采取了一系列优化 措施,如引入高效UPS、优化冷却系统、合理布局机柜等。
成果展示
经过优化,该数据中心的PUE值明显降低,每年可节省大量能源成 本,同时提高了服务器使用寿命。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
分析数据中心机房PUE值偏高问题及解决方案
一、冷却成为数据中心最有价值计划
随着电子信息系统机房IT设备高度的集成化,其能源效率偏差以及机房散热量日渐趋高的现象开始受到了各界强烈关注。
据权威部门统计,我国高端服务器集中的通信行业耗电在2007年就已达到200亿度以上,信息产业俨然已经成为一个高能耗行业。
而服务器又是现在数据中心机房的核心,并且24小时运行。
以我国服务器保有量为200万台,按每台服务器平均功耗400瓦,每年的耗电总量约为80亿千瓦时。
根据中国电信节能技术蓝皮书所载,一般机房内芯片级主设备1 W 的功耗会导致总体耗电量达到2.68-2.84W,而其中机房空调冷却系统的耗电量约占机房总能耗的40%。
由绿色网格组织(Green Grid)所提出的电力效率指标P U E 数值( Power Usage Effectiveness)是通过计算机房的总能耗与所有IT主设备能耗的比值而得出的。
故可估算上述机房的PUE值至少为2.68-2.84。
由此推算,我国数据中心机房消耗到空调冷却系统的能量至少为84亿千瓦时。
这也就意味着为服务器提供冷却的机房空调系统能耗大约能达到我国空调设备每年总能耗
1/4!
据称:Google公司的数据中心PUE年平均值可以达到1.21,中国Hp的新一代数据中心体验中心机房夏季PUE值可以达到1.6-1.7。
这一指标如何实现?
据美国电力转换公司APC最近的统计数据显示,数据中心的冷却成本大约占总能源账单的50%。
而国际组织Uptime Institute指出,由于数据中心机房内气流不适当,用于冷却的冷空气有60%都浪费了;数据中心的过度冷却(overcooling)差不多达到实际需求的2倍,目前多数机房存在过度冷却问题,相应的机房空调机组耗能也比设计工况增加耗电50%以上,最终造成机房居高不下的高额运行费用。
故此——优化数据中心冷却是排在第一位的最有价值的绿色计划!
二、数据中心高效节能冷却解决方案
由于现代电子信息系统机房中的空调负荷主要来自于计算机主机设备、外部辅助设备的发热量,其大约占到机房空调总负荷的80~97%;而在服务器、存储、网络等主设备中服务器的份额又大约占到设备散热量的80%。
所以随着服务器集成密度的持续增高,服务器机柜设备区就成为了机房内主要的热岛区域。
从机房基础架构而言,国家标准《电子信息系统机房设计规范》GB 50174-2008规定:“当机柜或机架高度大于1.8m、设备热密度大、设备发热量大的电子信息系统机房宜采用下送风空调系统。
”而下送风空调系统是将抗静电活动地板下空间作为空调系统的送风静压箱,空调机组由通风地板向机柜、设备等热负荷送风。
可是机房内空调冷却系统的送风按照流体力学伯努利原理所陈述的气流特性——“风速大的压力小”表明,受此特性制约的空气流会呈现靠近空调机组的通风地板出风量较小;又由于机房空调系统的靠近空调机组的前部通风地板已然输送出了一定的风量,后部的通风地板的送风量即会显现有所减少;而到了地板末端又
相反;又因为现有数据中心机房面积为了规模效应而愈建越大,一般安置的机房空调机组的方式是长距离的气流对吹,由此会出现在抗静电地板下产生风压相抵、通风地板送风量减小的现象。
从以上分析可见将抗静电活动地板作为空调系统送风静压箱进行设计时,其参数选定的误差可能会很大,这必将导致机房投入运行时主设备运行的安全性、可靠性及机房整体能耗表现得差强人意。
现代机房在设计空调冷却系统的送风气流时一般是参照设备发热量、机柜前后温差,以及地板高度和地板下有效断面积等因素,再按照空调机组送气量的30-40%来计算通风地板开口面积;并且规定用于机柜冷却的送风口必须能够提供大于机柜冷却所需的风量。
理想状态下机房内活动地板下的送风风压按照送风静压箱的设计模式姑且认定均匀风压为20Pa左右;机房通风地板送风风速按照国家标准要求取值3m/s;在实际应用中选用通风率(通风量)高达25%的通风地板,则当处于理想流体状态下的单个通风地板理论上可以供应的最大送风量约为
500立方英尺/分钟(849.45m3/h)或是其能提供约3.125kw的制冷量。
而现实运行中的机房通风地板最好的送风风速也就是1.5m/s;这就严重影响了空调系统的冷却效果,使机房空调、以致整个机房的能效偏低。
由于现在机房服务器类负荷的最高散热量近年来已攀升至每机柜20KW以上;而原有地板下送风机房精密空调系统理想送风状况下的机房单位面积最大供冷量为4KW/㎡(更大供冷量所配置的空调机组送风量也相应增大,其送风风压足以把地板给吹起来),已无法满足其需求;并直接制约着高集成度IT设备在电子信息系统机房行业内的推广应用。
另外,现在IT行业服务器应用中普遍存在利用率低下的现象,从而引致现有的数据中心机房诸多能效问题。
故IT行业多是采用虚拟化技术来整合服务器和存储设备,以图机房PUE值得以降低。
但是如果IT部门对其服务器和存储进行了虚拟化,将IT电力消耗减少了以后,事实上很可能会产生更加不利的电力使用效率。
譬如将机房内部分服务器进行了虚拟化应用,虽然能够降低IT设备电力消耗大约20%,但如果不改变机房现有基础架构和使用面积,就无法避免机房出现过冷现象,也就无从降低机房空调系统能耗。
这会使得PUE值反而升高。
所以IT业界进而采用更直接的手段——测定服务器的利用效率,以图改善单纯采用PUE能效值进行机房能效评估所造成的误导。
另外还有的是采用SPEC芯片利用效率测试工具类型的软件来监测IT设备的数据处理流量/秒(或数据吞吐量/秒)与IT设备的功耗之比的技术。
随着IT虚拟化技术的大量应用,机房内势必会出现散热点趋向于关键的、主要运行的高热密度设备转移的现象。
导致机房内会出现少量高热密度的热岛区域,而其它非主要(辅助运行)设备区域的空调环境冷却需求度相对却较少的状态。
此时如果不改变机房现有基础架构和使用面积,并为了避免主设备宕机或使用寿命的减少而必须维持机房内的少量高热密度散热点微环境状况不超标,就无法避免地出现机房整体区域过度冷却的现象。
造成机房能耗及PUE能效值显现得奇高。
据Uptime学会统计目前全球85%以上数据中心机房存在过度制冷的问题。
针对机房过冷问题,在最近的调查显示数据中心机房实际提供的冷量平均是热负
荷所需冷却功能的2.6倍;即使这样机房出现过热部位的可能性还是达到了10%。
所对应的机房空调机组耗能也比设计工况增加能耗大约50%以上。
上面所陈述的机房实际状况说明现代空调系统按照整体区域平均冷却模式设计的机房空调环境如应用于高热密度或高散热量的负荷就无法避免地采用了过度冷却方式,导致机房能耗超高,能效值差强人意。
这也意味着机房环境空调冷却领域必须进行相应的按需冷却理论和应用方面的创新,以应对服务器等类型的机房主设备发展需求和社会对其能源利用效率的要求。
针对上述数据中心机房能效现状,我们提出具体的解决方案是:首先,通过对整个数据中心的红外温度热场分布以及气流流动情况,准确找出问题点以便用来改善数据中心的热效率。
帮助用户建立他们数据中心精确的模型,提出数据中心地板室温以及返回天花板静压模型的能力,在温度调节设置时从4个CRAC边界条件中选择设定,并通过CFD方法能够得到流动和热传递的耦合解,用以正确说明气体流动和热的交换;根据得到的PDU具体热负荷来提供数据中心的评估报告,包括对数据中心气流和热载荷的评估,当风量或气流的冷却能力不能胜任的时候对用户提出警告,并提供综合的冷却能源审计报告,包括CRAC、机架和地板气流性能的详细分析报告。
其次,在送回风不畅的机房区域施行将原先的通风地板更换为高通风率的通风地板,以辅助下送风机房空调的送风效果。
由于现有电子信息系统机房的气流组织现状十分复杂,导致主机房高热密度负荷不能及时被空调机组所冷却,所以须在主机房高负荷服务器机柜前方更换专用的风机通风地板;还可通过集约探测分布式群控风机地板,高效节能整体地解决机房服务器机柜冷却难题。
进而,再通过上述控制系统的上位机平台实行调整机房空调的温湿度设置参数,使之设定在20—25℃/40—55%Rh的合理范围内,让机房空调机组系统达到既满足机房设备冷却所需;又避免出现机房过度冷却的效果。
在应用以上步骤的前提下;再对机房空调系统采用联控运行的模式,以达到最优散热效果的情况以及避免出现空调机组功效抵消的状况;最终可以实现提高数据中心的能源利用效率、节约机房散热之冷却系统的电耗。
经优化改造后的机房其PUE值类比可达到Hp公司的动态智能散热解决方案(Dynamic Smart Cooling)之降低数据中心散热成本40%的同级别水平。
综合以上数据进行分析,可以得出结论:配用了红外探测控制可调速风机通风强化全钢防静电地板(每块地板承重均布负荷>1400kg)的机架至少可以满足4KW(即标准19''机柜能够满足输入功率4KVA,或者是能够装载下20个标称200W 的1U服务器)热负荷的散热;如配用特殊定制高风量风机的通风地板可满足最大25KW/机架热负荷的散热需求,足以解决诸如刀片服务器、或虚拟化应用等类型的高热密度负荷进入机房场地后的局部热点问题;进而可解决数据中心机房整体能耗飙升等系列难题。