数据中心八大节能八个步骤

数据中心八大节能八个步骤
数据中心八大节能八个步骤

数据中心八大节能八个步骤

现有的节能技术大都没有顾及电力需求增长的主要因素,只考虑如何降低整体能耗成本。企业为数据中心节省能源同时提高效率,其实还有更有效的办法。只要实现高效存储数据,减少机器及磁盘数量,就能解决急速增长的能源消耗问题。这个策略不仅可以减少系统的复杂性,降低成本,还可以改善网络效率和性能表现,从而对新的业务需求能做出更好的反应。

1. 整合服务器和存储系统

服务器本身已消耗了数据中心的一半能源,而存储系统是另一大能源消耗者。事实上,窗口数据的大幅增长,导致了窗口档案服务器和直接附加存储系统的数目急增。因此,只需设立一个存储网络,整合服务器和存储系统,减少设备数量,数据中心的可用能源就能迅速增加,从而提高能源效益。

2. 选用高容量磁盘驱动器

典型的SATA磁盘驱动器,与相同容量的光纤通道(Fibre Channel) 磁盘驱动器相比,可以节省大约一半的能源。同时,它们可以提供最高的磁盘驱动器可用存储密度,进一步降低能源消耗。一些具有磁盘修复及数据保护技术的SATA磁盘正日趋流行,成为很多企业应用的理想选择。

3. 减少磁盘驱动器数量,防止磁盘故障

SATA磁盘驱动器的数据存储量比光纤通道主磁盘驱动器多,但我们不能因此而忽略了数据可靠性。当前流行的双区间(Dual-parity) RAID-DP,能够提供更高的存储利用率和错误容忍度,可同时修复两个故障磁盘驱动器的数据。

4. 将数据转移到更高效的存储系统

为确保最有效地使用存储资源,可以把数据转移到次存储系统以减低主存储的负荷。一个完善的信息服务器能自动把存取率较低的数据,自动由主存储器转移到存储效益较高的次存储系统去。

5. 提高利用率

据业内估计,存储利用率只有25%-40%,即大约有60%-75% 的存储容量还没有被使用,却在不停地消耗能源。市场上有些方案能有效解决这个问题,通过共享存储,让所有磁盘都可以存取数据,平均存储利用率可高达60%。

6. 单方案多应用

只要掌握了数据备份的窍门,就能大幅节省存储空间。第一,只存储变更的数据。第二,用数据备份实现多个不同应用,以降低对特定存储系统的依赖,同时将后备系统用于验证及异步灾难恢复,减少特定存储系统的数量,节省更多能源。第三,重复数据删除技术(Deduplication) 可以避免对存储于主磁盘阵列的多余数据进行重复备份,缓解增加次存储容量的需求。

7. 减少测试和开发所需的存储量

测试和开发需要多个数据备份,为存储架构增加了沉重的负担。新兴技术有助于企业建立多重实时虚拟数据备份,并加快新应用的测试和部署,降低所需的存储量。

8. 测评能源效率

最后的步骤是定期测评存储系统的能源效益,以便更好地掌握系统的能源消耗。

以上八个步骤足以应付数据中心未来数年的能源及空间增长,保障存储架构支持业务发展的能力。

数据中心的能源消耗是企业面临的一个严峻问题,提高数据管理能力和存储效率,除了为企业节省成本外,更重要是为保护我们的地球多出一分力,创造绿色世界,保护蓝色的天空。

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

数据中心节能方案分析

数据中心节能方案分析(总7 页) -CAL-FENGHAI.-(YICAI)-Company One1 -CAL-本页仅作为文档封面,使用请直接删除

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。

数据中心节能改造的7种解决方案图文【最新版】

数据中心节能改造的7种解决方案图文 点评网()报道:随着计算机网络业务量的迅速增长、服务器数量的增加,机房的面积及规模也在不断扩大,数据中心的能耗成本也迅速增加,并有赶超硬件成本的趋势。据权威机构调查显示,我国每年用于服务器的电源和冷却的总开支超过了20亿美元。对于已经建成投产的数据中心,如何实现有效的节能改造,需要从多方面考虑。本篇介绍了数据中心基础设施节能改造的几种主要解决方法。 一、设计一套机房整体监控系统 图IT设备负载变化曲线 从机房负荷和空调冷量配置来看,机房一般设计为N+X的安全运行模式,但从整个机房IT设备布局来看,由于机房面积较大,考虑其循环风量及减少机房局部温度死角等问题,及负载设备功耗的动态变化,精密空调群无法做到人为控制按照需求运行,机房发热量变化

无规律可以遵循,所有室内风机全速运行,压缩机由每台空调独自按照自己的需求进行控制,此种运行模式从运行费用角度来说是不经济节能的。如果强制空调群中的冗余设备进行关机运行,由于机房气流组织及温度变化规律很难掌握,人为控制空调的开机与关机也很难做到机房安全,因此可能存在局部温度不可控的现象。因此,机房精密空调群控対机房节能起到至关重要的意义。 机房专用空调群控节能的思路是:在保障机房设备正常运行的前提下,通过减少冗余空调设备的运行时间,来降低整个机房的能耗,实现空调系统的备份/轮循功能、层叠功能、避免竞争运行功能、延时自启动功能。 结合曙光自适应集群功率与能耗监控系统,进行精密空调集群集中管理,管理软件根据CPU占有率计算每一排的服务器功耗,根据负载分布情况及精密空调分布情况精确控制相应位置空调的工作状态,其中主要包括压缩机的启停和空调室内机的风扇启停。精密空调通过RS485网络与协议转换器通信,协议转换器通过以太网与管理节点协同工作,这样使不同厂家的精密空调(具有监控功能)能够通过曙光标准协议接口与管理节点进行数据交互每个服务器机柜内安装两个无线温湿度探头,每排机柜构成一个网络,通过物联网的组网方式形成一个温湿度监控网络,并通过以太网将数据上传至管理节点,形成双层监控网络,在监测到服务器到温的时候,开启机房空调,在节能的

数据中心机房节能简析

数据中心机房节能简析 贾骏 吕捷 王众彪 工业和信息化部电信研究院 邮电工业产品质量监督检验中心 摘要:本文阐述了数据中心机房的主要能耗分布情况,并从数据设备、电源系统、空调系统、机房气流组织几个方面介绍了机房降耗的主要方式。 关键词:数据中心 UPS 气流组织 1、数据中心机房概述 数据中心是为集中式收集、存储、处理和发送数据的设备提供运行维护的设施以及相关的服务体系。数据中心提供的主要业务包括主机托管、资源出租、系统维护、管理服务,以及其他支撑、运行服务等。 本文所提到的数据中心机房,是指承载数据中心业务的基础设施,一般由核心业务机房、UPS机房、电池室、空调机房、柴油发电机房等构成。 我国数据中心市场发展迅速,根据赛迪顾问年度报告,2010年中国IDC市场规模达到102.2亿元。我国2005年以来数据中心市场发展的趋势如图1所示。 图1 我国IDC市场发展趋势 2、数据中心机房能耗分布 2010年我国数据中心资源投入占总投入将近30%,维护成本占总投入近15%。[1]2010年我国数据中心运营成本分布如图2所示。

图2 2010年中国IDC公司最高运营成本分析 数据中心机房能耗主要分为服务器/网络设备能耗、制冷能耗、供电系统能耗、照明和其他能耗。根据EYP Mission Critical Facilities所提供的数据,50%的数据中心用电量是被服务器/网络设备所消耗。制冷系统是数据中心内第二大能耗系统,其耗电量占数据中心总耗电量的37%。供电系统占10%,照明和其他占3%。[2] 3、数据设备降耗 数据设备是承载数据中心的业务核心设备,同时也是耗电量所占比例最大的设备。根据亚马逊JamesHamilton的研究,数据中心服务器硬件所消耗的电力的费用约占57%。针对不同规模的数据中心,该费用比例是不同的。2010年我国数据中心规模分布如图3所示。 图3 2010年中国IDC公司的机房服务器数量 服务器是数据中心最为常见的设备。使用高效低能耗的服务器是数据设备降耗的关键所在。Standard Performance Evaluation Corporation(SPEC) 是一个全球性的、权威的第三方应用性能测试组织,它制定了一系列的规范来评定服务器应用性能。可以根据SPEC的测试值评定服务器的效能/能耗,以此作为选购服务器的参考。另一个评定标准是能源之星的服务器标准,符合能源之星标准的服务器要比旧式服务器多出30%的能源效率。 对于网络设备,可以使用TEEER值以及ECR/EER性能能耗比评估法进行节能分析。 4、电源系统降耗

高效数据中心的六大绿色节能措施

高效数据中心的六大绿色节能措施 和一两年前相比,很多数据中心的运营者们如今也并未热衷于“绿色”这个词。这当然不是说他们已经抛弃了旨在提升能源效率,更好地利用IT资源的各种项目,因为这些项目既可以削减运营成本,又能减少对环境的影响。 市场咨询公司451集团在考察了被大批组织和机构所接受的可降低数据中心运营成本的六种绿色实践之后,发布了一份内容全面的报告:《高效节能的数据中心实践》。其中的一些实践做法,如进行数据中心的全面规划,寻找可替代传统制冷系统的方案等可能早已被大家所熟知;其他做法,如采用直流供电和预制件数据中心等,则很少有人谈及,或者被认为不可持续而不予理会。 在计划升级其设施时,数据中心的运营者们应该好好考虑或者重新考虑一下这些趋势。当然,并非所有这些实践都适合每一个组织,但如果你不去看看,那你就有可能永远都不知道有这些实践做法存在。 实践1:采取综合的可提升整体效率的方法 数据中心运营者需要通过结合了集成技术和各种手段全面处理效率问题的方法,而不能孤立地去对待每个项目。这其实并不是什么开创性的概念:绿色网格组织从2008年成立以来就一直在提“通盘考虑”的口号。而这样做的最大好处之一就是可以促进各部门间,尤其是设施部门和IT 部门间的协同,确保所有的参与者在对数据中心进行升级改造时能够意见一致。举例来说,IT 部门订购了一个用于关键任务项目的高端服务器机柜,那么他只需要在机柜到达数据中心时打听一下是否有足够的电力或冷却能力支持这个机柜便可。 组织内的协作并未到此结束。为了努力减少能源浪费,很多企业部门之间如今已越来越开放,曾经是各部门最隐秘的东西也可以公开。这方面最有名的例子就是Facebook,利用其开放计算项目,该公司有关高效服务器、机柜和冷却设备的蓝图也都在开源。 实践2:更智能的冷却系统 数据中心运营者们正逐渐意识到,数据中心设施并非存放肉类的大冰柜,只需要适当制冷即可。虽说IT管理人员不希望设备因过热而失灵。但如果你花在IT上的每个美元都得分出50美分用于制冷的话——这正是很多传统数据中心的平均PUE比值——那几乎可以肯定你是在烧钱。 有好多种办法可以降低冷却成本,其中一些技术始终不被企业所接受,生怕会毁掉他们的宝贵硬件。这其中就包括液体冷却技术,该技术被认为会产生很多维护方面的问题,而且使用范围有限。但是来自绿色革命冷却公司的一种液体冷却方法采用了低成本、无污染的绝缘液体,据称其吸热能力是空气的1200倍。 至于空气冷却这种免费冷却方法则要比液体冷却更受欢迎。这个概念也很简单:只要把数据

数据中心能耗分析范文

数据中心能耗实例分析 前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。 一、数据中心节能的必要性 近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。 随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为1.25。据最新报道Google公司现在已经有部分数据中心的PUE降低到1.11。而我们国内的PUE平均值基本在1.8~2.0,中小规模机房的PUE值更高,大都在2.5以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。 根据对国内数据中心的调查统计,对于未采用显著节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH左右。因此对于新建的大型数据中心,节能的必要性十分重要。 从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。 二、影响数据中心能耗的因素 数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对UPS而言,根据IT设备的实际负荷选择合理的UPS 容量,避免因UPS效率过低而产生较大的自身损耗。同时,选择更加节能的高频UPS、优化UPS拓扑结构都可起到节能的效果。 1、UPS对数据中心能耗的影响 UPS主机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作

(完整版)数据机房专用空调能耗评估与分析

数据中心能耗指标 1. PUE PUE ( Power Usage Effectiveness,电能利用效率)是国内外数据中心普遍接受和采用的一 种衡量数据中心基础设施能效的综合指标,其计算公式为: PUE = P Total / P IT 其中,P Total 为数据中心总耗电,P IT 为数据中心中IT 设备耗电。 PUE 的实际含义,指的是计算在提供给数据中心的总电能中,有多少电能是真正应用到 IT 设备上。数据中心机房的PUE 值越大,则表示制冷和供电等数据中心配套基础设施所消耗的电能越大。2. pPUE pPUE(Partial Power Usage Effectiveness,局部PUE)是数据中心PUE概念的延伸,用于对数据中心的局部区域或设备的能效进行评估和分析。在采用pPUE 指标进行数据中心能效评测时,首先根据需要从数据中心中划分出不同的分区。其计算公式为: pPUE1= (N1+I1) / I1 其中, N1+I1 为1 区的总能耗, I1 为1 区的IT 设备能耗。 局部PUE 用于反映数据中心的部分设备或区域的能效情况,其数值可能大于或小于整体 PUE,要提高整个数据中心的能源效率,一般要首先提升pPUE值较大的部分区域的能效。 3. CLF/PLF CLF( Cooling Load Factor)称为制冷负载系数,PLF( Power Load Factor)称为供电负载系数)。CLF 定义为数据中心中制冷设备耗电与IT 设备耗电的比值;PLF 定义为数据中心中供配电系统耗电与IT 设备耗电的比值。 CLF 和PLF 是PUE 的补充和深化,通过分别计算这两个指标,可以进一步深入分析制冷系统和供配电系统的能源效率。 4. RER RER( Renewable Energy Ratio,可再生能源利用率)是用于衡量数据中心利用可再生能源的情况,以促进太阳能、风能、水能等可再生,无碳排放或极少碳排放的能源利用的指标。 一般情况下, RER 是指在自然界中可以循环再生的能源, 主要包括太阳能、风能、水能、生物质能、地热能和海洋能等。 专用空调系统能耗评估与分析 冷源的效率 能耗分析:

数据中心八大节能八个步骤

数据中心八大节能八个步骤 现有的节能技术大都没有顾及电力需求增长的主要因素,只考虑如何降低整体能耗成本。企业为数据中心节省能源同时提高效率,其实还有更有效的办法。只要实现高效存储数据,减少机器及磁盘数量,就能解决急速增长的能源消耗问题。这个策略不仅可以减少系统的复杂性,降低成本,还可以改善网络效率和性能表现,从而对新的业务需求能做出更好的反应。 1. 整合服务器和存储系统 服务器本身已消耗了数据中心的一半能源,而存储系统是另一大能源消耗者。事实上,窗口数据的大幅增长,导致了窗口档案服务器和直接附加存储系统的数目急增。因此,只需设立一个存储网络,整合服务器和存储系统,减少设备数量,数据中心的可用能源就能迅速增加,从而提高能源效益。 2. 选用高容量磁盘驱动器 典型的SATA磁盘驱动器,与相同容量的光纤通道(Fibre Channel) 磁盘驱动器相比,可以节省大约一半的能源。同时,它们可以提供最高的磁盘驱动器可用存储密度,进一步降低能源消耗。一些具有磁盘修复及数据保护技术的SATA磁盘正日趋流行,成为很多企业应用的理想选择。 3. 减少磁盘驱动器数量,防止磁盘故障 SATA磁盘驱动器的数据存储量比光纤通道主磁盘驱动器多,但我们不能因此而忽略了数据可靠性。当前流行的双区间(Dual-parity) RAID-DP,能够提供更高的存储利用率和错误容忍度,可同时修复两个故障磁盘驱动器的数据。 4. 将数据转移到更高效的存储系统 为确保最有效地使用存储资源,可以把数据转移到次存储系统以减低主存储的负荷。一个完善的信息服务器能自动把存取率较低的数据,自动由主存储器转移到存储效益较高的次存储系统去。 5. 提高利用率 据业内估计,存储利用率只有25%-40%,即大约有60%-75% 的存储容量还没有被使用,却在不停地消耗能源。市场上有些方案能有效解决这个问题,通过共享存储,让所有磁盘都可以存取数据,平均存储利用率可高达60%。 6. 单方案多应用 只要掌握了数据备份的窍门,就能大幅节省存储空间。第一,只存储变更的数据。第二,用数据备份实现多个不同应用,以降低对特定存储系统的依赖,同时将后备系统用于验证及异步灾难恢复,减少特定存储系统的数量,节省更多能源。第三,重复数据删除技术(Deduplication) 可以避免对存储于主磁盘阵列的多余数据进行重复备份,缓解增加次存储容量的需求。

数据中心节能方案分析

数据中心节能方案 分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其它专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,当前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,而且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆

放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,可是她们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工

数据中心空调系统节能设计分析及方法探究

数据中心空调系统节能设计分析及方法探究 发表时间:2019-08-06T15:46:25.110Z 来源:《建筑学研究前沿》2019年8期作者:傅永洪 [导读] 空调系统作为保证数据中心的稳定高效运转必不可少的措施,经过专业研究有着极大的节能减排的挖掘余地。 浙江新大新暖通设备有限公司浙江金华 321000 摘要:伴随着大数据时代的到来,我国的数据中心的数量与日俱增。但是数据中心的高能耗问题也成为了我国节能减排工作需要关注的一个重点问题,本文以大型数据中心空调系统作为研究对象,在分析大型数据中心空调系统的设置和特点的基础上,提出具有可实施性的节能措施,进而提高大数据中心空调系统的节能减排和能源利用率。 关键词:数据中心;空调系统;节能;分析研究 一、引言 进入大数据时代,各行各业的发展越来越离不开能够集中处理、存储和交换数据的专业数据中心,因此,各领域的数据中心建设和改造数量越来越多,规模越来越大。可以说我国的数据中心发展迅猛。但是通过系列的调查研究,可以发现我国当前的数据中心年耗电量很大,这也就意味着我国大多数的数据中心的平均电能使用效率(简称PUE=数据中心总能耗 / IT设备能耗)高,这并符合当前节能减排的发展原则。因此,我们需要通过多种形式的策略减少大数据中新的高耗能问题。其中,空调系统作为保证数据中心的稳定高效运转必不可少的措施,经过专业研究有着极大的节能减排的挖掘余地。 二、数据中心空调系统的组成 数据中心空调系统主要有制冷系统、散热系统及降温辅助系统三部分组成。 (一)制冷系统 主要是冷水机组,制冷系统的工作原理是通过转变制冷剂的高压、低压的形态,利用空气的流动性,迫使数据中心机房内部的热量流出室内。制冷系统作为保证机房温度的基础保障,是空调系统高耗能的部分之一,影响空调系统中制冷系统能源消耗的因素有机房环境温湿度、室外环境温湿度、受负载率等。 (二)散热系统 主体是风机或泵,工作原理是利用空气或水把热量从数据中心内部搬运到数据中的室外。排热系统产生足够的风量或水量以带走巨大的热量,但同时散热系统也是数据中空调系统耗能高的部分之一。影响散热能源消耗的因素是机房内部的气流组织。 (三)降温辅助 工作原理是通过冷却塔、喷头或湿式过滤器,利用水的蒸发在热量排到室外的工作过程中提供帮助。降温辅助系统可以提高换热效率,帮助空调系统把热量散发地更快。降温辅助系统的耗能比例占空调系统整体耗能比例较小。 三、数据中心空调系统高耗能解析 (一)空调系统配置不合理 由于数据中心对内部环境的恒定温湿度和空气质量都有很高的要求,但限于一些外部环境和技术升级的原因,大部分数据中心的空调系统都不引入室外新风,而采用循环风带走室内高密度的显热量。一般情况下,在室内没有湿源的条件下采用循环风的送风方式,空调系统是不用除湿的。但在数据中心空调系统的实际运行中,机房空调仍会流出冷凝水,这是因为空调在冷量输出时,冷凝水会携带冷量。因此数据中心在严格空气湿度的情况下,机房空调系统通常会一边对机房内部降温回风、冷凝除湿,另一方面又同时加湿,这种设备工作方式并不不合理,会造成大量不必要的能量浪费。 (二)机房气流组织不合理 数据中心机房内部的气流组织会对整体的散热排风效率产生极大的影响,当前的多数数据中心的气流组织都存在一些不合理的现象,主要体现在以下三方面:一是机柜排列方式不合理,把机柜面向同一个方向摆放,造成的结果就是前面服务器排出的热空气直接被后排服务器吸收,使得冷热气流混合在一起,大大拉低了空调制冷效率;二是送风通道设计不合理。一些数据中心建设规划不专业,送风管道等不符合标准,影响了空调系统的制冷能力,为了满足制冷要求会选用超出设备发热量的空调,提高了耗电量;三是地板出风口位置和空调出风口的距离设置不合理,甚至在二者之间摆放机柜,造成出风量不足、局部过热的问题。 四、数据中心空调系统的节能措施 (一)采用自然冷却技术 传统的常规制冷系统,需要制冷系统全年不间断地制冷,冷水机组全年运行运行,占据了空调系统的极大的耗电量。因此,采用自然冷却技术,可以在低温环境下,优先利用低温的自然水或风做冷源,免除了冷水机组的耗电成本。目前的自然冷却技术,主要有水侧自然冷却技术和风侧自然冷却技术两种。 (1)水侧自然冷却技术 水侧自然冷却技术,顾名思义就是在符合标准的情况下利用自然水做冷源供水。采用水侧自然冷却技术,一般需要把冷水和冷却水系统串联在板式换热器中,并把冷水的供回水温度设置成三段式:当冷却水供水温度≥16℃时,冷水机组和平时一样常规制冷,单独承担数据中心的全部冷负荷;当冷却水供水温度降到10—16℃,系统可以开始使用部分的冷水作为免费冷源,由冷水机组和免费冷源共同为空调系统提供冷负荷;当冷却水供水温度<10℃以下时,冷水机组可以在技术设置后自动停止运行,空调系统的全部冷负荷由免费冷源提供。通过自然冷却技术,在过渡季和冬季减少了压缩机工作,这种技术十分适合在我国北方沿海范围内的寒冷湿润性气候里使用,可以大大降低数据中心空调系统的PUE值。 (2)风侧自然冷却技术 风侧自然冷却技术包括和间接利用室外新风两种方式。直接利用室外新风,是指把室外低温冷空气运用过滤、除硫等方式净化处理后,直接引进数据机房内,作为冷源冷却设备,实现节能。如全年PUE仅1.07的FACEBOOK数据中心,采用的就是直接利用新风供冷。间接利用室外新风,又称“京都制冷”,东京很多的数据中心都采用这种方式,具体是指室外低温空气不直接进机房,而是通过转轮式换热器吸

基于绿色数据中心节能建设分析

基于绿色数据中心节能建设分析 发表时间:2016-11-09T15:21:54.870Z 来源:《基层建设》2016年16期作者:刘宝新 [导读] 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 北京国信网通科技有限公司北京市 100085 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 关键词:绿色;数据中心;节能建设 1绿色数据中心节能指标分析 目前,衡量数据中心是否绿色的主要量化指标是采用绿色网格组织(GreenGrid)制定的能效比指标,又称为PUE(PowerUsageEfficiency)。 PUE=[TotalFacilityοfPower(设备总能耗)ITEquipmentPower(IT设备总能耗)×100%]=1+[空调能耗IT设备能耗]+[通风能耗IT设备能耗]+[配电能耗IT设备能耗]+[UPS能耗IT设备能耗]+[照明能耗IT设备能耗]+…… PUE反映了数据中心总能耗和计算、存储、网络等IT设备能耗的比值。PUE值大于1,其数值越小,说明能源利用率越高。目前,国外先进的数据中心的PUE值能达到1.5~1.8,而我国的数据中心的PUE值为2~3,说明仅有33%~50%的电能用在了IT设备运行上,50%~66%的电能消耗在空调、配电等设备上。 2建设绿色数据中心应遵循的原则 2.1突出绿色环保,科学拟制方案:绿色数据中心建设要结合数据存储使用需求,根据信息采集、传输、处理和分发的具体使用需求,以及IT设备的具体特点,围绕绿色环保对数据中心的供电方式、UPS电源容量、制冷方式、照明、风路、水路、电路、管网、主要IT设备的选型等方面进行综合考虑,进行统一规划设计,并逐项细化,寻求最高效益。 2.2突出节能高效,合理配置资源:首先要突出保障重点。根据实际和存放数据的重要程度,可将数据中心划分为高密区、中密区和低密区,重点对高密区的电源、通风、制冷设备采取多种技术措施,制订多种配置应用方案。其次要便于系统扩容。根据信息化建设的发展特点,基础设施需求会呈现非线性爆炸性增长趋势,所以在数据中心的规划建设中,要充分考虑选址合理、系统容量易于扩展。 2.3突出稳定可靠,提高重组能力:不能稳定可靠运行的数据中心是无用的数据中心,因此设计数据中心一定要在提高其重组再生能力方面下功夫。硬件设施方面,在电源引接上,要有两个以上不同方向的路由线路;在UPS配置上,要采取多组互联方式,保证每个PDU单元、每个机柜的接电排、每个设备的电源输入端子上,都有两路以上独立UPS电源引接;在风机、制冷及配线上要进行N+1备份,对重要的保障区域要实现1+1备份。软件配置方面,运用云计算及虚拟化技术,将故障的网络、计算、存储等设备的应用随时自动平滑迁移到其他网络、计算、存储设备上,保证业务的不间断运行,提高系统重组能力。 2.4突出安全智能,提高管控水平:在外围监控上,要设立安全隔离区,建立由电子围栏、红外探测、夜视监控、自动报警、门禁系统等组织的综合外围监控系统,以提高安保等级。在区域设置上,区分维护区、设备区、控制区,将数据中心规划为不同的安全防护等级,采取多种身份认证措施和不同的防护手段,对核心控制区要设置以生物特征识别为基础的身份认证系统,严格人员进出管理;对核心设备区要设置气体消防,保证设备安全。在防电磁泄露上,对电源线、信号线等要采用屏蔽电缆,避雷装置和电缆屏蔽层应接地,对核心设备区要加装电磁屏蔽设施,保证设备安全可靠;在智能管理上,对数据中心的周边安全、内部温(湿)度等环境参数,对风、机、电、水相关配套系统运行指标,对计算、存储、网络设备负载运行状态,要能做到实时感知、直观呈现、智能处理,提高运维管理效率。 3建设绿色数据中心应关注的问题 3.1减少IT设备能耗:根据能耗结构和能耗路径图,IT设备每减少能耗1W,数据中心将整体减少能耗2.84W。在保证效率的前提下,降低IT设备的能耗是一个最有效的方法。从实现技术上看,主要有两种方法:一是采用高效低耗的核心部件。受加工工艺和技术水平的影响,不同供应商提供的CPU等核心处理器在能耗上存在20%~40%的差异,要尽量采用节能产品。二是采用工作效率较高的新型服务器,如用刀片式服务器取代机架式或塔式服务器,设备可节能20%~30%。 3.2采用虚拟化技术:采用虚拟化技术对现有服务器、存储设备进行整合,在不增加硬件投入成本的情况下,将所有的服务器、存储设备虚拟成一个公用的资源池,统一灵活调配,提供服务,在提高性能的同时减少物理服务器、存储设备的数量,减少电力、制冷和场地成本。在服务器方面,传统服务器平均CPU利用率一般为7%~15%,经虚拟化整合后,CPU利用率能提高到60%~70%,还能实现虚拟服务自动迁移、数据存储整体读写速率、系统鲁棒性和高可用性的提高。 4.3提高制冷效率:机房空调对数据中心的安全稳定运行起保障作用,空调耗电量在数据中心的总耗能中约占50%,已经超过了IT设备本身的耗电成本。提高制冷效率,主要从两个方面入手:①使用精密空调替代普通空调。同功率的普通空调和精密空调产生同样的制冷量,前者耗电量是后者的两倍。②规划好机房内冷热气流通道,避免交叉。传统的机房空调直接对机柜吹风或采用下送风方式,送(回)风路径不合理,应采用冷热气流通道隔离技术,科学设计机房各要素布局,缩短冷气流的运行距离,实现精确定点的冷能量投送,以减小能量消耗,提高空调制冷效率。 3.4减少供电模式转换:交流直流转换过程中的热损耗是数据中心隐性耗电的“大户”,能耗高达20%~30%。在传统供电方式下,为UPS 充电,要将外部交流电源转换为直流为电池充电;使用UPS电源时,要将UPS电池直流转换为交流,为IT设备电源模块供电;IT设备工作时,由于CPU等耗电设备是直流供电,IT设备电源模块要将外部交流转换为直流。在条件允许的情况下,尽量使用直流供电的服务器,通过直流电源供电方式,减少交流和直流电源逆变的次数,以提高电能应用效率。 3.5加强运维管理:通过精确智能的运维管理工具,实时监控和分析各种IT设备负载情况,及时发现、处理、维修、停用异常的IT设

IDC数据中心的六大节能降耗的策略

减少UPS和空调的冗余是舍本求末 IDC机房承载着企业的核心数据和关键业务。随着企业的发展扩大,需要处理和存储的数据呈几何级增长;新业务的层出不穷,需要更多的数据处理设备来支撑。数据处理和存储设备的任何一点闪失,不仅会造成企业巨大的经济损失,更会影响企业的品牌形象。而数据处理和存储设备比一般的设备需要更好的供电质量和温湿度环境。 供电方式从UPS单机、1+1并机发展到现在的N+M并机和双母线,供电可用性从单机的90%提高到双母线的99.9999%,并且正在向更高的方向发展。更高的供电可用性,仅靠技术的进步来提升是远远不够的。全世界UPS行业20年的不懈努力,UPS单机可靠性也仅从90%提高到98%左右。更高的供电可用性只有通过更多的冗余来保障,而冗余的UPS必然是降低了平均每台UPS的负载量,降低了其运行效率,从而提高了能耗。 但如果从减少UPS的冗余来降低能耗则需要更加慎重,如果是供电系统的可用性或冗余量超过了IDC机房的规划设计要求,则可以考虑适当减少;如果UPS供电系统刚刚达到或尚不能全面满足IDC机房的供电可用性要求,再减少UPS的冗余来节能就是舍本求末,得不偿失。 IDC机房设备集成度的提高,已经使单机架的功率大幅度提升。台式服务器机架功率为1.5kW,模块式服务器机架功率为5kW,现在最新的刀片式服务器机架功率高达15kW。高耗电,必然产生了高发热,因此IDC机房的空调需求量也大幅度增加。 在台式服务器时代,因为单位功率密度低,即使空调出现问题,机房温度也不会迅速升高到极限温度,维护人员有充足的时间来修复空调,因此几乎没有空调冗余的要求。但进入模块式服务器时代,对空调的可用性要求就不同了,空调短时间的停机或制冷量不足,机房温度会迅速升高到极限温度。曾经有一个机房,3台空调坏了1台,半小时后机房温度到了40℃,服务器全部报警甚至停机。现在是刀片式服务器,以往的空调散热方式已经不能有效解决机架内的热问题。因此,要想减少空调的冗余或配置来达到节能的目标同样是冒极大的风险。 节能降耗的六大通用原则

8种有效降低数据中心能耗的方法

随着新一代数据中心建设浪潮的兴起,随着企业机房里服务器的密度越来越高、数量越来越大,电力消耗和散热能力正在成为企业IT管理员重点关注的问题,数据中心所消耗的电力以及要冷却这些被转化为热量的电力消耗都达到了越来越高的水平。电力的巨大消耗带来各种严峻问题,巨额的电力成本会让企业的整体成本上升,并且,相对而言在一段时期内任何一个数据中心的电力供给都是有限的,所以即便是通过增加硬件来力求平衡,最终页仍然要面对电力供给与占地面积的问题,在日益倡导绿色环保和严格审核的低碳时代,降低数据中心的能耗极为必要。 在保证数据中心基础设施的最低电力供给的同时又能显著减少电力消耗与电力成本的方法有以下这些: 1、服务器虚拟化 服务器的电力消耗占整个数据中心电力消耗的一半左右,虚拟化技术让一台物理服务器可以运行多个多个虚拟主机,这让单独服务器的计算资源可以被多个环境共享,通过调整服务器的负载,可以让计算资源得到充分利用。降低二氧化碳排放量,降低管理和运营成本。 服务器虚拟化技术降低成本是非常明显的,平均来说,以一个月为周期,和应用多台服务器的非虚拟化站点相比,应用虚拟化技术的服务器站点在数据流量、能耗、受攻击威胁和总体拥有成本只有前者的10%。 虚拟化技术让企业更加绿色,运行多台服务器会产生大量的热量,并需要额外的能耗进行冷却。通过虚拟化技术,30台服务器可以整合到3台,这可以降低15至30吨的二氧化碳排放量——相当于在公路上减少7辆汽车。 2、采用现代化冷却系统 HVAC系统通常是数据中心第二大耗电系统,据Data Center Users Group估计,消耗的电能占数据中心能源消耗的37%。空气调节系统只有在处理小范围时才能到达较高效率,面对大规模的数据中心,多数冷却系统的冷却任务都无法最优化处理,冷却效率非常低。通常,用现代化、模块化和更高效的组件替代一些传统空调设备进行冷却处理可以节约大量电能。 在气候条件便利的情况下,采用类似用外部冷空气替代电力系统来进行冷却等更节能的方式,将可以更加节约电能。 3、重组数据中心 数据中心的数量和规模的扩大在过去的几年中非常明显,而服务器则被随处安装,非常缺乏计划性。这导致了数据中心的发热与散热不均,超载的IT环境也很难保证冷却系统的最优化运行。 对数据中心服务器的物理位置进行重组,例如配置冷、热通道,都可以显著减少冷却系

数据中心供配电系统的节能设计 马婕

数据中心供配电系统的节能设计马婕 发表时间:2019-05-05T15:30:59.370Z 来源:《基层建设》2019年第5期作者:马婕 [导读] 摘要:近些年,我国的社会经济快速发展,推动了我国各行各业快速发展,各项高新技术在得到了重视和应用。 天津方标世纪规划建筑设计有限公司天津 300220 摘要:近些年,我国的社会经济快速发展,推动了我国各行各业快速发展,各项高新技术在得到了重视和应用。特别是信息技术的发展,使得以此为依托的数据中心自动化管理系统得到了很大关注,随着其应用的更加广泛,也面临着更多的问题。在当前资源逐步耗尽的背景下,社会发展更注重兼顾环境效益,在数据中心自动化运维管理中涉及到较多的供配电系统,如果实现对其供配电系统的节能设计,对实现我国整体资源的优化规划具有积极意义。本文主要对数据中心供配电系统的节能设计进行分析研究,了解数据中心电源系统耗能现状和设计需求,不断完善其节能设计。 关键词:数据中心;供配电系统;节能设计;设计需求 引言 众多企业中应用的数据中心自动化运维管理是其提高整体管理效率的主要动力,所以保证数据中心自动化运维管理功能的持续、稳定的发挥作用是关键环节,所以保证数据中心运维管理的供配电系统的稳定并应用先进的节能措施,为企业的整体发展降低成本,提升运维效率,行业内研究的热点问题。本文通过分析供配电系统应用节能措施面临的众多问题,并提出相应的解决措施,为数据中心供配电系统的节能提供参考。 1供配电线路的设计 1.1设计供配电装置的过程中,将导线之间的距离有效地降低,电路导线的长度减少,低压配电在配电过程中节能效率有效提升就能够实现。该方法需要在连接线路中心的连接位置安置变电站,通常连接和拉伸线路,必须以直线方式进行,装置的方法是不需要回路的。 1.2选用铜芯类金属装置且电阻比较低的导线,能够将电阻有效地降低,从而使节能效果有效地实现。 1.3连接导线的过程中,结合电路导线横截面积,将电流负荷量的承载力有效地加强,通过延长导线来连接,将电压降的方法减少,致使电路导线横截面积有效地增加,从而使节能的效果得以有效地实现。 2分析系统节能设计要点 2.1空调配电系统设计 首先针对数据中心供配电系统空调系统运行特性,在节能设计之初我们参考了《电气装置工程施工及验收规范》、《采暖通风与空气调节设计规范》、《建筑设计防火规范》以及《公共建筑节能设计标准》等一系列国家标准。随后针对现有空调配电系统运行状态,第一步需要做的是控制好环境温度,即降低系统内部温度,而后在环境温度较低的情况下,机柜自然会达到降温冷却的效果。加之在冷却环节,空调系统自身所存在的能量也会收到温度冷却的影像了逐渐消散,而这又是一个非直接降温的过程,即符合节能设计要求。通过对封闭机柜柜门和送风管等构件的改造,空调冷风能够被直接输送到每一个机柜中去,尤其是经过精密设计后的送风风压、温度,每一个机柜内的风道阀门均能有效控制送风量,这样一来同样起到了降低空调能耗的目的。科学设计后的空调系统化,在运行过程中原有的气流组织不再经过机柜,也不会受到热量交换的影响而出现短路问题,如此同样有助于节能效果的实现。具体说来,针对上送风机系统的改造,首先是在现有的送风口以及送风管道的基础上,增加数量适当的风口与风管,如此冷气便会直接被输送到机柜门上方;随后重新对封闭式柜门进行了设计,使其更加符合机柜真实要求,在设计环节我们在封闭式机柜门的中间重新增加了顶部送风口、梯形进送槽等,且上端送风口契合进风口尺寸要求。正因为传统形式的空调系统在运行过程中难以满足机柜(大功率)制冷的要求,因而在设计环节只能牺牲更多的空间。正如我们所知,机柜(大功率)制冷工程最主要的目的在于保证刀片服务器顺利、稳定的运行,因而就具体的设计来讲,应适当增加机柜数量,确保在有限空间范围内能够容纳更多的服务器,这样一来即节省了空间,又起到了节能目的,并且在一定程度上大大缩减了初期建设与运行成本。 2.2高压直流供配电系统 随着数据中心运维管理的不断优化,行业内的工作者通过大量的实践和分析数据工作,得出HVDC(High-VoltageDirectCurrent,高压直流)电源供配电系统的工作效率较高,适用于现阶段对于数据中心节能的要求,为数据中心的节能工作带来了新的发展局面。因HVDC 供配电系统的电池直接接入服务器输入端,不需要额外的设别或者处理,就可以实现持续稳定的供电这一强大的优势,且扩容环节的后期维护更加简便易操作而得到广泛的运用。HVDC供配电系统的应用,仅在线路系统和配电上电能有损耗,切实降低了PUE的数据值,提升了系统运行的供电效率,推动了数据中心供配电中节能技术应用的进步。如2016年,天津电力公司用电客户系统在停电1小时内的情况下,供电效率高达99.9%。 2.3模块华UPS系统设计 当前我国数据中心机房中的UPS是处于负载工况下的,而初级机房运行中应当处于轻负载状态,因此其面临的能源消耗是非常严峻的,并且还会涉及到一定的IPS故障、并机系统震荡等问题。因此其节能设计需要从负载水平入手,积极引进国外先进绿色休眠设备和技术,对机房的负载水平科学控制,根据其负载来控制需要投入的UPS台数。如果当前满足了冗余n+1供电,则多余的UPS会自动进入休眠状态当中。 2.4选择高效节能的电气设备 在供配电设计中,为了有效融入节能技术,有关设计人员要从多角度选择。选择节能高效的电气设备,变配电的变压器就是有较高消耗的设备,若选择的变压器不合适,会使电能损耗增加。工业企业中,无功功率的消耗包括有线路、异步电动机与变压器等,和异步电动机有关的设备大概占百分之七十,电线占大概百分之十,变压器设备大概占百分之二十。因此,通过选择合适的电动机与变压器可以使线路感抗降低,一般企业所用的节能变压器是35kV或10kV。在有关功率达到一定范围的时候,为提高有关自然功率的因数,需要结合间隙工作制的设备与同步电动机,不过间隙工作制的设备应该具有空载切除这一功能。在选择电工机负荷的时候,有关参数应该比百分之四十的额定容量高;而在变压器负荷率超过百分之六十的时候,应该将有关参数控制在额定容量百分之七十五到百分之八十五的范围内。不管供电企业的基础是何种形式,都应该考虑到变压器回收率,通过使能源消耗降低,有效节约电能,企业的运营成本也得到降低。此外,选择对点攻击的时候,电动机年运行时间应该有标准,通常情况下要超过3000小时。节能发电机应该有较大的单机容量,且电动机可以在低负

相关文档
最新文档