APC-如何确定数据中心的节能减排目标

PUE
设立切合实际的期望值
理解 理解PUE PUE的测量,分析工具和流程 提升PUE最佳方法
Victor Avelar先生 施耐德电气美国电力转换公司 高级 究分析师 高级研究分析师 Steven Carlini先生 施耐德电气美国电力转换公司 部高级总监
? 2009 APC by Schneider Electric
数据中心科学中心
数据中心全球解决方案

PUE赛马
典型的数据中心
极端的PUE目标
信息来源 …
● Google 1.12 ● 微软“数据实验室” 1.24 ● 微软第4代数据中心(PUE目标) 1.12 1 12 ● 大型数据中心的 1.08 高级设计师 1 06 1.06
1.046
PUE 报告 …
就是我们 要做的!
让我们看看他们是怎样实现的….
? 2009 APC by Schneider Electric

5个关键的PUE概念
什么是PUE合适的期望?
1● 它可以通过合理的方式和标准公式计算获得 2● PUE的 比较是困难的
有效的PUE比较是严格依赖于共同的术语和假设来进行的
● PUE 以数学为基础
PUE应该包含大楼基础系统中被数据中心使用的部分 3● 真正的 大楼共用的这部分经常被忽略,而这些是需要公平的分配到数据中心运行中去。 冗余使PUE变得更糟 4● 冗余电源和制冷系统能降低 余电源和制冷系统能降低PUE,因为冗余造成负载率降低。 因为 余造成负载率降低
5
● 你的电费账单和效率(PUE)不是一回事
两者是反比例关系,你可以合理的做出设计上的决定 两者是 例关系 你 做 设计 决定
公平比较 不要忽视隐含的电气损失 公平比较,不要忽视隐含的电气损失
? 2009 APC by Schneider Electric

“细节上难操作” =
PUE 代表多少额外的能耗支出被用于电源、制冷 和其他保护IT设备的损耗。 设备的损耗 PUE值越低越好,1最完美。
简单故事
但是
整个故事
你需要问一些问 题……
● 包含些什么?
(入是什么,出是什么?)
年均值还是实时值 是实时值? ● 年均值 ● 负载率是多少?
(负载率降低PUE值会 降低) (例如, 有”自然冷却”)
● 处在什么地理位置?
请确保是“公平”比较
? 2009 APC by Schneider Electric

PUE 1.05? … 计算一下这些数字
1 兆瓦数据中心, 兆瓦数据中心 100%负载 PUE 1.05 50 千瓦物理基础设施损耗
(
PUE
PUE
1.05
=
1050 1000
输 能耗 输入能耗 IT负载能耗
)
如何才能使能耗损失降低到只有50千瓦?
分阶段阐述
方案
传统的物理基础设施方案
kW 损耗
520
1.52
目标:
50 kW 损耗
损失
2.000 2.00 1.875 1.750 1.75 1 625 1.625 1.500 1.50 1.375 1.250 1.25 1 125 1.125 1.000 1.00 0% 0%
520 kW
全载(最好)
传统物理基 础设施方案
PUE
注意: 这个分析是保守的… 还有其它的隐含 损耗使之更难达到50KW的损耗。
? 2009 APC by Schneider Electric
PUE
PUE
1 52 1.52
20%
40%
% IT Load IT
60%
80% 80%
100% 100%
负载

PUE 1.05? …
1 兆瓦数据中心 ,100% 负载
分阶段阐述
方案
传统物理基础设施方案 无冷冻水机组,采用100%的水侧的经济节 能方案
kW 损耗
520 330
PUE
1.52 1.33
TARGET:
50 kW 损耗
损耗
2.000 2.00 1.875 1.750 1.75 1 625 1.625 1.500 1.50 1.375 1.250 1.25 1 125 1.125 1.000 1.00 0%
100%水能冷却
330 kW
PUE
PUE
全载(最好)
PUE
1.33
20%
40%
% IT Load IT
60%
80% 80%
100% 100%
? 2009 APC by Schneider Electric
负载

PUE 1.05? …
1兆瓦数据中心, 兆瓦数据中心 100% 负载
分阶段阐述
方案
传统物理基础设施方案 无冷冻水机组,采用100%的水侧的经济节 能方案 UPS运行在旁路,采用415V系统
kW损耗
520 330 220
PUE
1.52 1.33 1.22
目标:
50 kW 损耗
损耗
2.000 2.00 1.875 1.750 1.75 1 625 1.625 1.500 1.50 1.375 1.250 1.25 1 125 1.125 1.000 1.00 0% 0%
UPS运行在旁路
220 kW
PUE
PUE
全载(最好)
PUE
1.22
100% 100%
20%
40% 40%
% IT Load
60%
80%
? 2009 APC by Schneider Electric
IT 负载

PUE 1.05? …
1兆瓦数据中心 100% 负载
分阶段阐述
方案
传统物理基础设施方案 无冷冻水机组,采用100%的水侧的经济节 能方案 UPS运行在旁路,采用415V系统 采用空气侧的经济节能制冷方案, 不用UPS
kW 损耗
520 330 220 140
2.000 2.00
PUE
1.52 1.33 1.22 1.14
损耗
目标:
50 kW 损耗
140 kW
PUE
1.875 1.750 1.75 1 625 1.625 1.500 1.50 1.375 1.250 1.25 1 125 1.125 1.000 1.00 0% 0%
空气能,不用不间断电 源系统
PUE
全载(最好)
PUE
20% 40% % IT Load 60% 80%
1.14
100% 100%
? 2009 APC by Schneider Electric
IT 负载

PUE 1.05? …
1 MW 数据中心, 数据中心 100% 负载
分阶段阐述
方案
传统物理基础设施方案 无冷冻水机组,采用100%的水侧的经济节能 方案 UPS运行在旁路,采用415V系统 采用空气侧的经济节能制冷方案, 不用UPS 无空调风扇
kW 损耗
520 330 220 140 50
2.000 2.00 1.875 1.750 1.75 1 625 1.625 1.500 1.50 1.375 1.250 1.25 1 125 1.125 1.000 1.00 0% 0%
PUE
1.52 1.33 1.22 1.14 1.05
目标:
50 kW 损耗
损耗
50 kW
无环境空调扇
PUE
PUE
全载(最好)
PUE
20% 40% % IT Load 60% 80%
1.05
100% 100%
? 2009 APC by Schneider Electric
IT Load

PUE < 1.10, 对于位于普通地点的普通的数据中心, 在常规预算下是不现实的
很大程度上,这些公司举例的目的是强化PUE的印象,但是他们拥 有你没有的设备和资源:
? 特殊地理位置的选择 (可以采用自然冷却) ? 采用故障容错的系统(这样设备故障就 不会造成影响) ? 非标准服务器 (例如, 符合NEBS电信级) 可以接受更恶劣简朴的条件
没有UPS 很少或者没有功率冗余 全部自然冷却 没有空调风扇
还有 …
? 需要非常大的预算,来进行特别设计,满足绿色倡议
这些极端的策略很难适合于典型的企业数据中 这些极端的策略很难适合于典型的企业数据中心
? 2009 APC by Schneider Electric

让我们看看标准算法
行业正在取得进展 …
● 数据中心能效是一个棘手的问题,尚未建 立标准 ● PUE标准正在制定之中 ● APC 158号白皮书讨论了PUE标准计算的持 续努力和成果。
#158 数据中心 能效计算 标准方法
标准计算确保您公平比对
? 2009 APC by Schneider Electric

最大的问题:
什么是入, 什么是出?
在PUE计算中,制冷子系统有时会被忘却
当共用大楼制冷统时能耗必须按照数据中心的实际使用比例分担
数据中心各子系统
冷却塔池加热器 在 PUE 计算中经 常漏算的部分 水处理 管道结冰保护 空气压缩机 冷凝水泵
摘自APC白皮书158页 表1
在 PUE 计算公式中, 他们是属于?
IT 负载? 物理基础设施? 不包含?
√ √ √ √ √ √ √ √
空气处理/净化空气能量 加热器 井泵
遗漏这些就会造成 PUE计算错误
? 2009 APC by Schneider Electric

PUE vs 电费
请勿将PUE作为唯一度量标准!
它可能无法达表达所有问题
数据中心设计更新
电费 较好 (降低)
因为服务器容量的优化利 用
PUE 较差
(提高)
除非精简电源和冷却机以适 应较低的IT负荷 *
虚拟化 / 整合
较差 服务器入口温度升高
(提高) 若服务器风扇耗电功率 的增加超过因温度升高 带来的冷却系统功率 降低
较好
(降低) 因为冷却系统效率更高
注意 “因果关系”
APC白皮书118虚拟化对效率的影响
? 2009 APC by Schneider Electric
APC白皮书138入口温度升高对效率的影响

? 2009 APC by Schneider Electric

效率仪表板
WEB界面
通过应用程序接口(API) 便于实现与第 三方网页的集成
能源效率计算
当前和历史的PUE值是基于现有IT负荷
的实际情况为基础的
各子系统的能量损失
洞察子系统的能耗损失和成本详情,了解 那个子系统花费最高
? 2009 APC by Schneider Electric

Ai ir-cooled ch hiller Ch hilled water pum mp CR RAH Sw witchgear Pr rimary au uxiliaries Li ighting Ge enerator Cr ritical power di ist. Cr ritical au uxiliaries UP PS
各子系统能源费用的分项数字
Cost (USD)
? 2009 APC by Schneider Electric

BMS系统:数据中心主屏幕显示 监测、控制、整体能源使用和 测 控制 整体能源使用和PUE
数据中心平面图
制冷设备
数据中心管道
加湿装置 加热装置 CRACs (计算机房空调系统) 综合HVAC、控制、杂项、基础设施区 IT设备 UPS损失 变压器及PDU损耗 照明 /主机房 开关设备及发电设备损失 泵装置(专用于数据中心CRAC装置)
PID整定
报告
Square D 专门小组
Kw
安全
V i 专门小组 Veris
Veris 历史
Veris 历史
综述
PUE 计算:
157.3 (total) ÷ 88.3 (IT) = 1.78
4
3
2
1
PUE =
? 2009 APC by Schneider Electric
1.779

数据中心效率计算器 电源和冷却装置对能源成本的影响
在线获得该工具的“动态版” tool
? 2009 APC by Schneider Electric
Go
https://www.360docs.net/doc/437127662.html,

比较现实的 PUE 预估
平均值将会变得更好 最差的将会大大改善
4
3
PUE
2
你的数据中心在哪呢?
最差 普通 最佳
1 2008
? 2009 APC by Schneider Electric
2010
2013
2018

? 2009 APC by Schneider Electric

数据中心能效研究报告

中国数据中心能效研究 报告

前言 数据中心是我国实现经济转型升级的重要基础设施,提供的巨大 数据处理能力是国家战略资源,是实现智能制造、互联网+、物联网、云计算、大数据等技术和应用的基础保障,同时因其巨大的能源消耗和对环境的影响使绿色数据中心成为中国制造2025 中绿色制造中的重点领域。数据中心在我国未来一段时期内将持续快速发展,同时需进行有效管理实现其低碳绿色可持续发展。 数据中心是提供数据计算、存储、交换等资源的服务和其他应用 服务的电子信息基础设施,具备以下特点和作用: 1)是支撑经济转型的重要电子信息基础设施和服务平台 数据中心是提供大规模数据交换、计算、存储等功能的核心基础设施,是满足大规模数字化、网络化、虚拟化和智能化需求的核心节点,是政务、金融、商务、制造、科研和民生服务等活动开展的重要保障。因此数据中心是我国开展经济转型的关键配套和支撑基础设施和服务平台。 2)是支持科技发展和创新的重要载体 数据中心是提供计算等能力的资源池。智能制造、物联网、云计算、大数据等新兴技术和应用以及科学研究等方面的发展和创新都需要以海量数据处理为基础,需要大量调用计算资源开展。数据中心的

核心任务之一就是承载该方面的需求。 3)是信息安全的关键节点 数据中心作为海量数据集中处理的物理设施和平台,由于其在信息链路中的核心作用必然成为信息安全的关键节点。数据中心的安全除信息安全技术领域外还包括计算机机房的物理环境安全。IT 系统无法规避由于运行环境不能满足要求而导致的功能丧失。 4)是节能重点对象 数据中心耗能巨大,对资源需求多样。根据美国能源局的统计数据中心的年耗电量已经占美国年发电量的 1.5%,据估算我国数据中心的年耗电量占比与美国基本相当,已经达到三峡的年发电量。依据对我国全国范围内7000 多家数据的耗电量的调研,不考虑规模前提下,数据中心单体年均耗电量超过一百万度。数据中心在大量耗电的同时也消耗大量水等其他资源。 在新常态下我国的数据中心领域的发展存在着挑战又有着机遇。从人类社会经济的总体发展历程来看经历了从农耕经济到工业制造经济到技术经济再到信息经济的基本过程。在以德日为代表的技术经济受到美国为代表的信息经济的巨大挑战后,如何加强信息化和工业化的深度融合,使信息经济红利可以反哺回制造业等实体经济,这是我国乃至世界范围内共同面临的课题。我国也明确提出了中国制造

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

APC-如何确定数据中心的节能减排目标

PUE
设立切合实际的期望值
理解 理解PUE PUE的测量,分析工具和流程 提升PUE最佳方法
Victor Avelar先生 施耐德电气美国电力转换公司 高级 究分析师 高级研究分析师 Steven Carlini先生 施耐德电气美国电力转换公司 部高级总监
? 2009 APC by Schneider Electric
数据中心科学中心
数据中心全球解决方案

PUE赛马
典型的数据中心
极端的PUE目标
信息来源 …
● Google 1.12 ● 微软“数据实验室” 1.24 ● 微软第4代数据中心(PUE目标) 1.12 1 12 ● 大型数据中心的 1.08 高级设计师 1 06 1.06
1.046
PUE 报告 …
就是我们 要做的!
让我们看看他们是怎样实现的….
? 2009 APC by Schneider Electric

5个关键的PUE概念
什么是PUE合适的期望?
1● 它可以通过合理的方式和标准公式计算获得 2● PUE的 比较是困难的
有效的PUE比较是严格依赖于共同的术语和假设来进行的
● PUE 以数学为基础
PUE应该包含大楼基础系统中被数据中心使用的部分 3● 真正的 大楼共用的这部分经常被忽略,而这些是需要公平的分配到数据中心运行中去。 冗余使PUE变得更糟 4● 冗余电源和制冷系统能降低 余电源和制冷系统能降低PUE,因为冗余造成负载率降低。 因为 余造成负载率降低
5
● 你的电费账单和效率(PUE)不是一回事
两者是反比例关系,你可以合理的做出设计上的决定 两者是 例关系 你 做 设计 决定
公平比较 不要忽视隐含的电气损失 公平比较,不要忽视隐含的电气损失
? 2009 APC by Schneider Electric

数据中心工程中暖通系统节能措施的分析与研究

数据中心工程中暖通系统节能措施的分析与研究 摘要:随着中国经济的迅速崛起,信息化、网络化的时代快速到来,数据中心 的规模越来越大、服务器的发热密度越来越高,与之伴随的则是能源消耗的陡然 升高。概述了目前数据中心工程设计时主要的暖通系统,逐一分析目前采用较多 的节能措施特点、应用条件等,讨论了一些应用较少或较新的节能措施。 关键词:数据中心;发热密度;节能措施 一、引言 随着中国经济的迅速崛起,信息化、网络化的时代快速到来,作为信息化的 基础设施,数据中心的规模越来越大、且服务器的发热密度越来越高,与之伴随 的则是能源消耗的陡然升高,节能变得刻不容缓,从IT设备自身对周围环境的要 求出发,制定一个系统的、有针对性的、安全的、节能的暖通空调系统方案成为 暖通专业设计人员的主要目标。在2006年以前,单个数据中心的规模还很小, 大多数均在2000m2以下,且单机柜发热密度也很小,采用的冷却方式一般为直 膨式的机房专用精密空调,其特点是控制精度高,在寒冷地区能全年运行,使用 寿命较一般舒适型空调长,但价格昂贵。2006年后,数据中心的规模越来越大,单个数据中心的面积达到上万平方米,如果还按照机房专用精密空调作为冷却方式,评价其节能效果的重要指标PUE(Power Usage Effectiveness)至少在2.0以上。 所以,这种冷却方式在规模较大的数据中心中会使得整个运行过程的电费大 幅升高。针对这种情况,目前的普遍做法是用冷冻水系统代替直膨式精密空调, 以冷冻水系统(一次泵或二次泵均可)作为基础,针对不同的气候参数、可利用场地、平面布局等条件又细分为多种形式,例如冷源可以是风冷冷水机组,也可以 是水冷冷水机组;空调末端可以是精密空调也可以采用组合式空调,且组合式空 调还可以采用热回收式机组等。本文主要从节能的角度出发,重点阐述可行的节 能措施,针对具体工程,可根据实际情况选取合理的节能措施形成一个完整的、 有针对性的空调系统。 二、数据中心机房环境要求 数据中心主要是给服务器、存储等设备提供一定的运行环境,服务器等设备 均是处于全年不间断运行中,对于运行环境要求非常,涉及温度、湿度和空气洁 净度。一般机房机柜区域或冷通道温度设置在24℃左右,湿度40%到65%,空气 洁净度要求每立方空气中大于或等于0.5μm的悬浮粒子数少于1760000粒,如果 空气中存在的硫化物、氮氧化物以及腐蚀性气体也会对于服务器等设备产生非常 大的伤害。 相关统计数据显示,数据中心每年每平方英尺能源成本是普通办公室的十倍,其中暖通系统能耗最大,可见暖通系统能耗的严重性。导致数据中心暖通系统能 耗高的因素有很多。首先,从新风处理角度来看。一些数据中心建设中,忽视了 对自然因素的利用,不能新风处理能耗大,且处理效果不理想,导致新风处理过 程中能耗问题突出。此外,一些数据中心规模扩大、设备增多,却没有合组织气流,结果造成冷风与服务器的热风混在一起,严重制约了暖通系统功能发挥,导 致能耗严重,更给设备运行造成了不利影响。另一方面,一些数据中心缺乏相应 管理制度,没有设置隔离门,造成数据中心与外界空气环境交换过于频繁,导致 数据中心内部湿度、温度与实际需求偏差较大,就会加大暖通系统整体能耗,更

数据中心机房的基本节能减排工作

数据中心基础设施的可用性问题,最初是由IT厂商提出的,如IBM提出的“随需应 变”(OnDemand)、HP提出的“动成长企业”(AdaptiveEnterprise)等概念,它们都推崇“逐步升级”的扩展模式,来替代“一步到位”的建设模式。全球经济环境变化的加剧,正是用户对可扩展性的要求逐渐提高的根本推动动因。 数据中心由两个层面组成——IT层面和机房设施层面。机房设施的扩展性需求,是IT 层面的扩展性对运行环境的灵活性的诉求。与IT层面的扩展性相比,机房设施的可扩展性实现起来更困难一些,就好比前者是家具,后者是房间。 机房设施的扩展方式,或称扩容方式,从目前国内的情况看,“一步到位”的方式与“逐步升级”的方式,都因用户需求各异而共存着。实际上,这两种方式确实各有千秋。从机房设施的工程实践上看,前者易、后者难;从投资风险上看,前者大、后者小;从投资、运营的过程和管理上看,前者简便、后者繁琐。所以,对于业务相对稳定的企业用户,更愿意选择前者;而业务发展迅速或市场风险高的企业,则更愿意选择后者,即对机房设施的可扩展性要求高,希望“随需应变”。 用户对机房设施“随需应变”的要求,对机房的规划、设计、设备选型、运行维护等四个环节及电源、空气调节、防雷、机柜、监控等五个子系统(有时将防雷纳入电源子系统)提出了挑战。 一、规划 在规划环节,首先需要在数据中心机房选址问题上考虑扩展性的要求,包括对面积、楼层位置、楼层净高、地面载荷等方面的要求。 如果决定采用单一房间,显然要考虑未来扩容时的IT设备及机房设备的面积需求;另外可行的方案是,扩容时占用其他房间——在这种情况下,需要同时对欲占用的房间进行同样的结构评估,包括楼层位置、楼层净高与承重。 楼层位置主要影响空调室外机房的放置问题。一般情况下,空调室外机与机房的垂直距离不宜超过15米,所以机房的选址楼层多选在距离楼顶、底层或设备层较近的楼层,并在楼顶、底层或设备层中预留足够的空间,以备未来机房空调系统扩容时,安装空调室外机。 如果未来扩容时计划不扩大机房面积,而是增大机房内的设备密度(或机架数量),则必须考虑未来的设备重量与机房地板承重。 二、设备选型 设备选型环节应考虑的问题很多,以下分为子系统来讨论。 1、供电子系统 从供电子系统来看,需要考虑包括UPS、供电线路、配电线路等在内的整体的可扩展性。

数据中心机房节能简析

数据中心机房节能简析 贾骏 吕捷 王众彪 工业和信息化部电信研究院 邮电工业产品质量监督检验中心 摘要:本文阐述了数据中心机房的主要能耗分布情况,并从数据设备、电源系统、空调系统、机房气流组织几个方面介绍了机房降耗的主要方式。 关键词:数据中心 UPS 气流组织 1、数据中心机房概述 数据中心是为集中式收集、存储、处理和发送数据的设备提供运行维护的设施以及相关的服务体系。数据中心提供的主要业务包括主机托管、资源出租、系统维护、管理服务,以及其他支撑、运行服务等。 本文所提到的数据中心机房,是指承载数据中心业务的基础设施,一般由核心业务机房、UPS机房、电池室、空调机房、柴油发电机房等构成。 我国数据中心市场发展迅速,根据赛迪顾问年度报告,2010年中国IDC市场规模达到102.2亿元。我国2005年以来数据中心市场发展的趋势如图1所示。 图1 我国IDC市场发展趋势 2、数据中心机房能耗分布 2010年我国数据中心资源投入占总投入将近30%,维护成本占总投入近15%。[1]2010年我国数据中心运营成本分布如图2所示。

图2 2010年中国IDC公司最高运营成本分析 数据中心机房能耗主要分为服务器/网络设备能耗、制冷能耗、供电系统能耗、照明和其他能耗。根据EYP Mission Critical Facilities所提供的数据,50%的数据中心用电量是被服务器/网络设备所消耗。制冷系统是数据中心内第二大能耗系统,其耗电量占数据中心总耗电量的37%。供电系统占10%,照明和其他占3%。[2] 3、数据设备降耗 数据设备是承载数据中心的业务核心设备,同时也是耗电量所占比例最大的设备。根据亚马逊JamesHamilton的研究,数据中心服务器硬件所消耗的电力的费用约占57%。针对不同规模的数据中心,该费用比例是不同的。2010年我国数据中心规模分布如图3所示。 图3 2010年中国IDC公司的机房服务器数量 服务器是数据中心最为常见的设备。使用高效低能耗的服务器是数据设备降耗的关键所在。Standard Performance Evaluation Corporation(SPEC) 是一个全球性的、权威的第三方应用性能测试组织,它制定了一系列的规范来评定服务器应用性能。可以根据SPEC的测试值评定服务器的效能/能耗,以此作为选购服务器的参考。另一个评定标准是能源之星的服务器标准,符合能源之星标准的服务器要比旧式服务器多出30%的能源效率。 对于网络设备,可以使用TEEER值以及ECR/EER性能能耗比评估法进行节能分析。 4、电源系统降耗

(完整版)数据机房专用空调能耗评估与分析

数据中心能耗指标 1. PUE PUE ( Power Usage Effectiveness,电能利用效率)是国内外数据中心普遍接受和采用的一 种衡量数据中心基础设施能效的综合指标,其计算公式为: PUE = P Total / P IT 其中,P Total 为数据中心总耗电,P IT 为数据中心中IT 设备耗电。 PUE 的实际含义,指的是计算在提供给数据中心的总电能中,有多少电能是真正应用到 IT 设备上。数据中心机房的PUE 值越大,则表示制冷和供电等数据中心配套基础设施所消耗的电能越大。2. pPUE pPUE(Partial Power Usage Effectiveness,局部PUE)是数据中心PUE概念的延伸,用于对数据中心的局部区域或设备的能效进行评估和分析。在采用pPUE 指标进行数据中心能效评测时,首先根据需要从数据中心中划分出不同的分区。其计算公式为: pPUE1= (N1+I1) / I1 其中, N1+I1 为1 区的总能耗, I1 为1 区的IT 设备能耗。 局部PUE 用于反映数据中心的部分设备或区域的能效情况,其数值可能大于或小于整体 PUE,要提高整个数据中心的能源效率,一般要首先提升pPUE值较大的部分区域的能效。 3. CLF/PLF CLF( Cooling Load Factor)称为制冷负载系数,PLF( Power Load Factor)称为供电负载系数)。CLF 定义为数据中心中制冷设备耗电与IT 设备耗电的比值;PLF 定义为数据中心中供配电系统耗电与IT 设备耗电的比值。 CLF 和PLF 是PUE 的补充和深化,通过分别计算这两个指标,可以进一步深入分析制冷系统和供配电系统的能源效率。 4. RER RER( Renewable Energy Ratio,可再生能源利用率)是用于衡量数据中心利用可再生能源的情况,以促进太阳能、风能、水能等可再生,无碳排放或极少碳排放的能源利用的指标。 一般情况下, RER 是指在自然界中可以循环再生的能源, 主要包括太阳能、风能、水能、生物质能、地热能和海洋能等。 专用空调系统能耗评估与分析 冷源的效率 能耗分析:

数据中心节能改造的7种解决方案图文【最新版】

数据中心节能改造的7种解决方案图文 点评网()报道:随着计算机网络业务量的迅速增长、服务器数量的增加,机房的面积及规模也在不断扩大,数据中心的能耗成本也迅速增加,并有赶超硬件成本的趋势。据权威机构调查显示,我国每年用于服务器的电源和冷却的总开支超过了20亿美元。对于已经建成投产的数据中心,如何实现有效的节能改造,需要从多方面考虑。本篇介绍了数据中心基础设施节能改造的几种主要解决方法。 一、设计一套机房整体监控系统 图IT设备负载变化曲线 从机房负荷和空调冷量配置来看,机房一般设计为N+X的安全运行模式,但从整个机房IT设备布局来看,由于机房面积较大,考虑其循环风量及减少机房局部温度死角等问题,及负载设备功耗的动态变化,精密空调群无法做到人为控制按照需求运行,机房发热量变化

无规律可以遵循,所有室内风机全速运行,压缩机由每台空调独自按照自己的需求进行控制,此种运行模式从运行费用角度来说是不经济节能的。如果强制空调群中的冗余设备进行关机运行,由于机房气流组织及温度变化规律很难掌握,人为控制空调的开机与关机也很难做到机房安全,因此可能存在局部温度不可控的现象。因此,机房精密空调群控対机房节能起到至关重要的意义。 机房专用空调群控节能的思路是:在保障机房设备正常运行的前提下,通过减少冗余空调设备的运行时间,来降低整个机房的能耗,实现空调系统的备份/轮循功能、层叠功能、避免竞争运行功能、延时自启动功能。 结合曙光自适应集群功率与能耗监控系统,进行精密空调集群集中管理,管理软件根据CPU占有率计算每一排的服务器功耗,根据负载分布情况及精密空调分布情况精确控制相应位置空调的工作状态,其中主要包括压缩机的启停和空调室内机的风扇启停。精密空调通过RS485网络与协议转换器通信,协议转换器通过以太网与管理节点协同工作,这样使不同厂家的精密空调(具有监控功能)能够通过曙光标准协议接口与管理节点进行数据交互每个服务器机柜内安装两个无线温湿度探头,每排机柜构成一个网络,通过物联网的组网方式形成一个温湿度监控网络,并通过以太网将数据上传至管理节点,形成双层监控网络,在监测到服务器到温的时候,开启机房空调,在节能的

节能减排技术在数据中心的应用研究

节能减排技术在数据中心的应用研究 字号:小大2012-03-19 09:54来源:IT商业新闻网我要评论(2) 随着信息全球化,在全世界范围内数据中心被大量建立,数据中心的能耗及所产生环境问题成为人们关心的重点。据报告,一个典型数据中心所需要能量可供3万个家庭使用。最近就有人指责,在google中每进行两次搜索就会生产15克二氧化碳,所消耗能量大约与烧开一壶水能量相当,但据google称,每做一次搜索会产生0.2克的二氧化碳。从数据调查情况来看,从2006到2007年数据中心能耗增长了超过13%,其费用支出从2000年以来增加了一倍,预计到2012将达到40万亿。 随着全球气候变化,人们越来越重视对环境的保护,对各种产品(汽车、空调、冰箱等)的能耗标准都有明确要求,但数据中心能耗标准还没有制定,企业只是感觉到数据中心所消耗电能越来越多,维护数据中心成本在增加。随着2008年全球出现金融危机,许多企业都在大幅度压缩成本和减少开支,与此形成随着全球气候变化,人们越来越重视对环境的保护,对各种产品(汽车、空调、冰箱等)的能耗标准都有明确要求,但数据中心能耗标准还没有制定,企业只是感觉到数据中心所消耗电能越来越多,维护数据中心成本在增加。随着2008年全球出现金融危机,许多企业都在大幅度压缩成本和减少开支,与此形成鲜明对比的是数据中心海量的数据增长速度对存储、能耗提出了要求。如何实现数据中心节能降耗成为企业、厂商共同目标,许多厂商都把节能产品作为销售产品时的一个亮点,企业则将节能降耗作为降低成本和树立企业形象重要内容。厂商、企业要实现节能降耗不仅依靠技术的创新,更需要用户优化数据中心设计。因此设计、建造并启用高性能、低能耗的数据中心已成为一项重要工作。 1、基础设施的节能降耗问题 据统计,大多数数据中心超过50%的电力资源被UPS、空调等机房基础设施消耗。剩余能源才被服务器、存储、网络等IT设备消耗。目前,国际上采用PUE通行的指标来衡量数据中心的电力使用率PUE=数据中心的总功耗/IT设备的总功耗。国外先进机房的PUE值可以达到1.7,而我国数据中心的PUE的平均值在2.5以上。 降低PUE值,必须在IT设备总量不变的情况下,降低空调、UPS等基础设施的电力消耗。 (1)降低数据中心的制冷能耗 降低制冷能耗是减少数据中心总能耗的关键,由于传统的数据中心没有根据空气动力学来设计通风系统,通常出现局部温度过高,空调制冷并未达到预期的目的,不仅能耗上有损失,且温度控制效果不理想。随着局部温度的升高,IT硬件的可靠性大幅降低,据估计,温度每升高10℃,电子设备的长期可靠性降低50%.通常的做法是,调低数据中心机房空调

数据中心空调系统节能设计分析及方法探究

数据中心空调系统节能设计分析及方法探究 发表时间:2019-08-06T15:46:25.110Z 来源:《建筑学研究前沿》2019年8期作者:傅永洪 [导读] 空调系统作为保证数据中心的稳定高效运转必不可少的措施,经过专业研究有着极大的节能减排的挖掘余地。 浙江新大新暖通设备有限公司浙江金华 321000 摘要:伴随着大数据时代的到来,我国的数据中心的数量与日俱增。但是数据中心的高能耗问题也成为了我国节能减排工作需要关注的一个重点问题,本文以大型数据中心空调系统作为研究对象,在分析大型数据中心空调系统的设置和特点的基础上,提出具有可实施性的节能措施,进而提高大数据中心空调系统的节能减排和能源利用率。 关键词:数据中心;空调系统;节能;分析研究 一、引言 进入大数据时代,各行各业的发展越来越离不开能够集中处理、存储和交换数据的专业数据中心,因此,各领域的数据中心建设和改造数量越来越多,规模越来越大。可以说我国的数据中心发展迅猛。但是通过系列的调查研究,可以发现我国当前的数据中心年耗电量很大,这也就意味着我国大多数的数据中心的平均电能使用效率(简称PUE=数据中心总能耗 / IT设备能耗)高,这并符合当前节能减排的发展原则。因此,我们需要通过多种形式的策略减少大数据中新的高耗能问题。其中,空调系统作为保证数据中心的稳定高效运转必不可少的措施,经过专业研究有着极大的节能减排的挖掘余地。 二、数据中心空调系统的组成 数据中心空调系统主要有制冷系统、散热系统及降温辅助系统三部分组成。 (一)制冷系统 主要是冷水机组,制冷系统的工作原理是通过转变制冷剂的高压、低压的形态,利用空气的流动性,迫使数据中心机房内部的热量流出室内。制冷系统作为保证机房温度的基础保障,是空调系统高耗能的部分之一,影响空调系统中制冷系统能源消耗的因素有机房环境温湿度、室外环境温湿度、受负载率等。 (二)散热系统 主体是风机或泵,工作原理是利用空气或水把热量从数据中心内部搬运到数据中的室外。排热系统产生足够的风量或水量以带走巨大的热量,但同时散热系统也是数据中空调系统耗能高的部分之一。影响散热能源消耗的因素是机房内部的气流组织。 (三)降温辅助 工作原理是通过冷却塔、喷头或湿式过滤器,利用水的蒸发在热量排到室外的工作过程中提供帮助。降温辅助系统可以提高换热效率,帮助空调系统把热量散发地更快。降温辅助系统的耗能比例占空调系统整体耗能比例较小。 三、数据中心空调系统高耗能解析 (一)空调系统配置不合理 由于数据中心对内部环境的恒定温湿度和空气质量都有很高的要求,但限于一些外部环境和技术升级的原因,大部分数据中心的空调系统都不引入室外新风,而采用循环风带走室内高密度的显热量。一般情况下,在室内没有湿源的条件下采用循环风的送风方式,空调系统是不用除湿的。但在数据中心空调系统的实际运行中,机房空调仍会流出冷凝水,这是因为空调在冷量输出时,冷凝水会携带冷量。因此数据中心在严格空气湿度的情况下,机房空调系统通常会一边对机房内部降温回风、冷凝除湿,另一方面又同时加湿,这种设备工作方式并不不合理,会造成大量不必要的能量浪费。 (二)机房气流组织不合理 数据中心机房内部的气流组织会对整体的散热排风效率产生极大的影响,当前的多数数据中心的气流组织都存在一些不合理的现象,主要体现在以下三方面:一是机柜排列方式不合理,把机柜面向同一个方向摆放,造成的结果就是前面服务器排出的热空气直接被后排服务器吸收,使得冷热气流混合在一起,大大拉低了空调制冷效率;二是送风通道设计不合理。一些数据中心建设规划不专业,送风管道等不符合标准,影响了空调系统的制冷能力,为了满足制冷要求会选用超出设备发热量的空调,提高了耗电量;三是地板出风口位置和空调出风口的距离设置不合理,甚至在二者之间摆放机柜,造成出风量不足、局部过热的问题。 四、数据中心空调系统的节能措施 (一)采用自然冷却技术 传统的常规制冷系统,需要制冷系统全年不间断地制冷,冷水机组全年运行运行,占据了空调系统的极大的耗电量。因此,采用自然冷却技术,可以在低温环境下,优先利用低温的自然水或风做冷源,免除了冷水机组的耗电成本。目前的自然冷却技术,主要有水侧自然冷却技术和风侧自然冷却技术两种。 (1)水侧自然冷却技术 水侧自然冷却技术,顾名思义就是在符合标准的情况下利用自然水做冷源供水。采用水侧自然冷却技术,一般需要把冷水和冷却水系统串联在板式换热器中,并把冷水的供回水温度设置成三段式:当冷却水供水温度≥16℃时,冷水机组和平时一样常规制冷,单独承担数据中心的全部冷负荷;当冷却水供水温度降到10—16℃,系统可以开始使用部分的冷水作为免费冷源,由冷水机组和免费冷源共同为空调系统提供冷负荷;当冷却水供水温度<10℃以下时,冷水机组可以在技术设置后自动停止运行,空调系统的全部冷负荷由免费冷源提供。通过自然冷却技术,在过渡季和冬季减少了压缩机工作,这种技术十分适合在我国北方沿海范围内的寒冷湿润性气候里使用,可以大大降低数据中心空调系统的PUE值。 (2)风侧自然冷却技术 风侧自然冷却技术包括和间接利用室外新风两种方式。直接利用室外新风,是指把室外低温冷空气运用过滤、除硫等方式净化处理后,直接引进数据机房内,作为冷源冷却设备,实现节能。如全年PUE仅1.07的FACEBOOK数据中心,采用的就是直接利用新风供冷。间接利用室外新风,又称“京都制冷”,东京很多的数据中心都采用这种方式,具体是指室外低温空气不直接进机房,而是通过转轮式换热器吸

IDC数据中心的六大节能降耗的策略

减少UPS和空调的冗余是舍本求末 IDC机房承载着企业的核心数据和关键业务。随着企业的发展扩大,需要处理和存储的数据呈几何级增长;新业务的层出不穷,需要更多的数据处理设备来支撑。数据处理和存储设备的任何一点闪失,不仅会造成企业巨大的经济损失,更会影响企业的品牌形象。而数据处理和存储设备比一般的设备需要更好的供电质量和温湿度环境。 供电方式从UPS单机、1+1并机发展到现在的N+M并机和双母线,供电可用性从单机的90%提高到双母线的99.9999%,并且正在向更高的方向发展。更高的供电可用性,仅靠技术的进步来提升是远远不够的。全世界UPS行业20年的不懈努力,UPS单机可靠性也仅从90%提高到98%左右。更高的供电可用性只有通过更多的冗余来保障,而冗余的UPS必然是降低了平均每台UPS的负载量,降低了其运行效率,从而提高了能耗。 但如果从减少UPS的冗余来降低能耗则需要更加慎重,如果是供电系统的可用性或冗余量超过了IDC机房的规划设计要求,则可以考虑适当减少;如果UPS供电系统刚刚达到或尚不能全面满足IDC机房的供电可用性要求,再减少UPS的冗余来节能就是舍本求末,得不偿失。 IDC机房设备集成度的提高,已经使单机架的功率大幅度提升。台式服务器机架功率为1.5kW,模块式服务器机架功率为5kW,现在最新的刀片式服务器机架功率高达15kW。高耗电,必然产生了高发热,因此IDC机房的空调需求量也大幅度增加。 在台式服务器时代,因为单位功率密度低,即使空调出现问题,机房温度也不会迅速升高到极限温度,维护人员有充足的时间来修复空调,因此几乎没有空调冗余的要求。但进入模块式服务器时代,对空调的可用性要求就不同了,空调短时间的停机或制冷量不足,机房温度会迅速升高到极限温度。曾经有一个机房,3台空调坏了1台,半小时后机房温度到了40℃,服务器全部报警甚至停机。现在是刀片式服务器,以往的空调散热方式已经不能有效解决机架内的热问题。因此,要想减少空调的冗余或配置来达到节能的目标同样是冒极大的风险。 节能降耗的六大通用原则

基于绿色数据中心节能建设分析

基于绿色数据中心节能建设分析 发表时间:2016-11-09T15:21:54.870Z 来源:《基层建设》2016年16期作者:刘宝新 [导读] 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 北京国信网通科技有限公司北京市 100085 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 关键词:绿色;数据中心;节能建设 1绿色数据中心节能指标分析 目前,衡量数据中心是否绿色的主要量化指标是采用绿色网格组织(GreenGrid)制定的能效比指标,又称为PUE(PowerUsageEfficiency)。 PUE=[TotalFacilityοfPower(设备总能耗)ITEquipmentPower(IT设备总能耗)×100%]=1+[空调能耗IT设备能耗]+[通风能耗IT设备能耗]+[配电能耗IT设备能耗]+[UPS能耗IT设备能耗]+[照明能耗IT设备能耗]+…… PUE反映了数据中心总能耗和计算、存储、网络等IT设备能耗的比值。PUE值大于1,其数值越小,说明能源利用率越高。目前,国外先进的数据中心的PUE值能达到1.5~1.8,而我国的数据中心的PUE值为2~3,说明仅有33%~50%的电能用在了IT设备运行上,50%~66%的电能消耗在空调、配电等设备上。 2建设绿色数据中心应遵循的原则 2.1突出绿色环保,科学拟制方案:绿色数据中心建设要结合数据存储使用需求,根据信息采集、传输、处理和分发的具体使用需求,以及IT设备的具体特点,围绕绿色环保对数据中心的供电方式、UPS电源容量、制冷方式、照明、风路、水路、电路、管网、主要IT设备的选型等方面进行综合考虑,进行统一规划设计,并逐项细化,寻求最高效益。 2.2突出节能高效,合理配置资源:首先要突出保障重点。根据实际和存放数据的重要程度,可将数据中心划分为高密区、中密区和低密区,重点对高密区的电源、通风、制冷设备采取多种技术措施,制订多种配置应用方案。其次要便于系统扩容。根据信息化建设的发展特点,基础设施需求会呈现非线性爆炸性增长趋势,所以在数据中心的规划建设中,要充分考虑选址合理、系统容量易于扩展。 2.3突出稳定可靠,提高重组能力:不能稳定可靠运行的数据中心是无用的数据中心,因此设计数据中心一定要在提高其重组再生能力方面下功夫。硬件设施方面,在电源引接上,要有两个以上不同方向的路由线路;在UPS配置上,要采取多组互联方式,保证每个PDU单元、每个机柜的接电排、每个设备的电源输入端子上,都有两路以上独立UPS电源引接;在风机、制冷及配线上要进行N+1备份,对重要的保障区域要实现1+1备份。软件配置方面,运用云计算及虚拟化技术,将故障的网络、计算、存储等设备的应用随时自动平滑迁移到其他网络、计算、存储设备上,保证业务的不间断运行,提高系统重组能力。 2.4突出安全智能,提高管控水平:在外围监控上,要设立安全隔离区,建立由电子围栏、红外探测、夜视监控、自动报警、门禁系统等组织的综合外围监控系统,以提高安保等级。在区域设置上,区分维护区、设备区、控制区,将数据中心规划为不同的安全防护等级,采取多种身份认证措施和不同的防护手段,对核心控制区要设置以生物特征识别为基础的身份认证系统,严格人员进出管理;对核心设备区要设置气体消防,保证设备安全。在防电磁泄露上,对电源线、信号线等要采用屏蔽电缆,避雷装置和电缆屏蔽层应接地,对核心设备区要加装电磁屏蔽设施,保证设备安全可靠;在智能管理上,对数据中心的周边安全、内部温(湿)度等环境参数,对风、机、电、水相关配套系统运行指标,对计算、存储、网络设备负载运行状态,要能做到实时感知、直观呈现、智能处理,提高运维管理效率。 3建设绿色数据中心应关注的问题 3.1减少IT设备能耗:根据能耗结构和能耗路径图,IT设备每减少能耗1W,数据中心将整体减少能耗2.84W。在保证效率的前提下,降低IT设备的能耗是一个最有效的方法。从实现技术上看,主要有两种方法:一是采用高效低耗的核心部件。受加工工艺和技术水平的影响,不同供应商提供的CPU等核心处理器在能耗上存在20%~40%的差异,要尽量采用节能产品。二是采用工作效率较高的新型服务器,如用刀片式服务器取代机架式或塔式服务器,设备可节能20%~30%。 3.2采用虚拟化技术:采用虚拟化技术对现有服务器、存储设备进行整合,在不增加硬件投入成本的情况下,将所有的服务器、存储设备虚拟成一个公用的资源池,统一灵活调配,提供服务,在提高性能的同时减少物理服务器、存储设备的数量,减少电力、制冷和场地成本。在服务器方面,传统服务器平均CPU利用率一般为7%~15%,经虚拟化整合后,CPU利用率能提高到60%~70%,还能实现虚拟服务自动迁移、数据存储整体读写速率、系统鲁棒性和高可用性的提高。 4.3提高制冷效率:机房空调对数据中心的安全稳定运行起保障作用,空调耗电量在数据中心的总耗能中约占50%,已经超过了IT设备本身的耗电成本。提高制冷效率,主要从两个方面入手:①使用精密空调替代普通空调。同功率的普通空调和精密空调产生同样的制冷量,前者耗电量是后者的两倍。②规划好机房内冷热气流通道,避免交叉。传统的机房空调直接对机柜吹风或采用下送风方式,送(回)风路径不合理,应采用冷热气流通道隔离技术,科学设计机房各要素布局,缩短冷气流的运行距离,实现精确定点的冷能量投送,以减小能量消耗,提高空调制冷效率。 3.4减少供电模式转换:交流直流转换过程中的热损耗是数据中心隐性耗电的“大户”,能耗高达20%~30%。在传统供电方式下,为UPS 充电,要将外部交流电源转换为直流为电池充电;使用UPS电源时,要将UPS电池直流转换为交流,为IT设备电源模块供电;IT设备工作时,由于CPU等耗电设备是直流供电,IT设备电源模块要将外部交流转换为直流。在条件允许的情况下,尽量使用直流供电的服务器,通过直流电源供电方式,减少交流和直流电源逆变的次数,以提高电能应用效率。 3.5加强运维管理:通过精确智能的运维管理工具,实时监控和分析各种IT设备负载情况,及时发现、处理、维修、停用异常的IT设

高效数据中心的六大绿色节能措施

高效数据中心的六大绿色节能措施 和一两年前相比,很多数据中心的运营者们如今也并未热衷于“绿色”这个词。这当然不是说他们已经抛弃了旨在提升能源效率,更好地利用IT资源的各种项目,因为这些项目既可以削减运营成本,又能减少对环境的影响。 市场咨询公司451集团在考察了被大批组织和机构所接受的可降低数据中心运营成本的六种绿色实践之后,发布了一份内容全面的报告:《高效节能的数据中心实践》。其中的一些实践做法,如进行数据中心的全面规划,寻找可替代传统制冷系统的方案等可能早已被大家所熟知;其他做法,如采用直流供电和预制件数据中心等,则很少有人谈及,或者被认为不可持续而不予理会。 在计划升级其设施时,数据中心的运营者们应该好好考虑或者重新考虑一下这些趋势。当然,并非所有这些实践都适合每一个组织,但如果你不去看看,那你就有可能永远都不知道有这些实践做法存在。 实践1:采取综合的可提升整体效率的方法 数据中心运营者需要通过结合了集成技术和各种手段全面处理效率问题的方法,而不能孤立地去对待每个项目。这其实并不是什么开创性的概念:绿色网格组织从2008年成立以来就一直在提“通盘考虑”的口号。而这样做的最大好处之一就是可以促进各部门间,尤其是设施部门和IT 部门间的协同,确保所有的参与者在对数据中心进行升级改造时能够意见一致。举例来说,IT 部门订购了一个用于关键任务项目的高端服务器机柜,那么他只需要在机柜到达数据中心时打听一下是否有足够的电力或冷却能力支持这个机柜便可。 组织内的协作并未到此结束。为了努力减少能源浪费,很多企业部门之间如今已越来越开放,曾经是各部门最隐秘的东西也可以公开。这方面最有名的例子就是Facebook,利用其开放计算项目,该公司有关高效服务器、机柜和冷却设备的蓝图也都在开源。 实践2:更智能的冷却系统 数据中心运营者们正逐渐意识到,数据中心设施并非存放肉类的大冰柜,只需要适当制冷即可。虽说IT管理人员不希望设备因过热而失灵。但如果你花在IT上的每个美元都得分出50美分用于制冷的话——这正是很多传统数据中心的平均PUE比值——那几乎可以肯定你是在烧钱。 有好多种办法可以降低冷却成本,其中一些技术始终不被企业所接受,生怕会毁掉他们的宝贵硬件。这其中就包括液体冷却技术,该技术被认为会产生很多维护方面的问题,而且使用范围有限。但是来自绿色革命冷却公司的一种液体冷却方法采用了低成本、无污染的绝缘液体,据称其吸热能力是空气的1200倍。 至于空气冷却这种免费冷却方法则要比液体冷却更受欢迎。这个概念也很简单:只要把数据

IDC数据机房节能减排的技术

IDC数据机房节能减排的技术 IDC即为“互联网数据中心”,在快速发展的进程中,要发挥其应用价值,就要提高服务器的数据处理能力,数据存储设备和网络设备的信息容量增加,对于电能的消耗量增大。所以,企业在运行的过程中,所使用的电量就会有所增加。采用节能减排技术,可以降低IDC机房的运行成本,企业的市场竞争力也会有所增加,确保安全安全可靠地运行。本论文针对IDC数据机房节能减排的技术进行分析。 IDC是基于互联网构建起来的数据中心,通过运行专业网站,就可以为企业、网站以及媒体提供服务,由于数据信息传输质量高,而且数据容量规模大,因此得到了广泛的应用。IDC所提供的业务非常广泛,包括宽带批发业务、空间租用业务以及服务器等等。IDC数据机房中,各种设备都可以集中放置,空间有限,释放大量的热量。为了降低IDC数据机房的能源使用量和排放量,就要采取节能减排措施。 机柜的散热方式要合理 IDC数据机房中所安装的发热设备并不与散热设备之间相对应,其热量排放的?^程是通过机柜内部的气流来完成的。在对机房内部的设备进行布局的时候,要对空调系统充分了解,对释放热量多的设备在室内分布要均衡,对于机柜

的送风设计可以采用下送风的方式。如果机柜的发热量非常大,送风就需要单独进行。机房需要具有很高的制冷效率,这样就可以使得机房运行中,能源消耗量有所降低。设备的发热量非常大,就要将其布置在靠近空调的位置,最好对着出风口,确保机柜的冷量。 选择合适的供电设备 在供电设备的选择上,要符合实际需要。原有的不间断电源系统被240伏的高压直流系统所取缔,当电源系统处于低负荷运行状态的时候,就会发挥很好的能源节约效果,系统运行的总有效率可以提高15%左右。从经济的角度而言,供电系统的运行是会消耗一定量能源的,适用于耗费能源的冗余供电系统。但是,冗余供电系统依然会被用于IDC数据机房中。交流设备所输出的电流需要经过2次交流转变为直流电流之后,才可以达到设备端。供电系统的能源消耗量也会有所增加。目前,IDC数据机房的供电多会采用不间断电源系统,这种设备的能源消耗量大,而且所产生的谐波量也非常大,这就必然会污染到供电系统。这就需要在设备的选择中,根据IDC数据机房的需求购进低能耗的设备,而且要求设别就有技术扩展性,是降低IDC数据机房的能源消耗量。 运用精确送风技术 IDC数据机房在运行中要降低能源消耗,减少排放量,

相关文档
最新文档