数据中心不间断电源系统架构演进V1.3

数据中心不间断电源系统架构演进V1.3
数据中心不间断电源系统架构演进V1.3

数据中心不间断电源系统架构演进

朱永忠,现任平安科技(深圳)有限公司基础架构首席总监。曾在百度历任系统部高级经理、副总监、总监、高级总监,加入百度之前供职于中国最大的商业数据中心服务提供商——世纪互联(Nasdaq:VNET).拥有十多年数据中心建设、运营和管理经验,是百度数据中心基础设施的总设计师、规划师和推动者。在百度的七年时间中,永忠组建和培养了国内互联网领域最强大的数据中心团队,打造出中国互联网领域最领先的数据中心基础设施,为百度的大数据战略打下了良好的基础。永忠是国内数据中心领域的顶尖技术专家,身为中国数据中心专家技术委员会副主任委员,和工信部数据中心工作组特聘专家,主持和参与了多项行业标准及白皮书的编写和审核工作,为过去几年中国数据中心行业的大发展做出了突出贡献。

摘要:随着大数据和云计算时代的到来,业务呈现规模化和爆发式增长,传统UPS 电源系统在能耗、扩展性、可靠性等方面迎来挑战,HVDC等新型不间断电源系统开始在数据中心应用。

本文从UPS、HVDC、分布式电源等设备自身特点,以及冗余、在线、离线等系统架构的角度进行梳理,提出数据中心不间断供电系统架构正在呈现从在线到离线,从集中到分布的发展趋势。

0.引言

一个典型的数据中心供电系统,由中压配电、变压器、低压配电、不间断电源(Uninterruptible power supply,UPS)、末端配电以及发电机等设备组成,其中,UPS的主要作用,是在市电电源中断、发电机启动之前,确保所带的负载持续供电,因此,UPS系统包含了储能设备,如蓄电池或飞轮;此外,传统

UPS还具有隔离市电侧浪涌、电压骤升骤降等作用。

UPS系统是数据中心供电连续性的重要保障,UPS系统的可靠性直接影响数据中心的可靠性,同时,在绝大多数数据中心,UPS系统的损耗可占IT设备能耗的10%以上。因此,提高UPS系统的可靠性,同时降低其损耗,就成为数据中心UPS系统架构演变的主旋律。

1.传统UPS供电系统

目前,数据中心内应用最广的不间断电源还是传统UPS,它主要由整流AC-DC、逆变DC-AC和静态旁路3部分电路组成,DC母线上挂接蓄电池,输入AC正常时,经整流和逆变两次转换后为负载供电,同时为蓄电池浮充,输入AC中断时,蓄电池由浮充转放电,经逆变器为负载供电,对负载来说,感受不到输入端电源的中断。

1.1UPS设备的发展

从结构上看,UPS设备可以分为后备式、在线互动式、双转换在线式、Delta 转换在线式等类型,其中前两种主要用于小容量负载(≤5kVA),Delta转换在线式技术受专利保护,因此,大型数据中心主要采用双转换在线式UPS设备。

传统的双转换在线式UPS设备采用可控硅整流,主要的问题是谐波电流畸变率(THDi)高(10-30%),转换效率低(85-92%)。

随着电力电子器件的发展,呈现出IGBT取代可控硅整流的趋势,IGBT整流的优势是取消变压器,因而降低了成本,同时有比较好的输入特性,在较宽的负载范围内,可以将THDi控制在5-10%之间,最大的好处是效率的提升,通常在87-95%之间。目前,IGBT整流型UPS的可靠性比可控硅整流型略低。

1.2UPS系统的发展

由于UPS设备结构复杂,因此自身容易发生故障,设备冗余可以提高可用性,UPS系统便有了N、N+X、2N、”市电+U电“等架构。

N系统满足基本需求,没有冗余的UPS设备。它的优点是系统简单,硬件配置成本低廉;由于UPS工作在设计满负荷条件下,因此效率较高。其缺点是可用性低,当UPS发生故障,负载将转换到旁路供电,无保护电源;在UPS、电池等设备维护期间,负载处于无保护电源状态;存在多个单故障点。

N+X并联冗余系统是指由N+X台型号规格相同且具有并机功能的UPS设备并联组成的系统,配置N台UPS设备,其总容量为系统的基本容量,再配置

X台(X=1~N)UPS冗余设备,允许X台设备故障退出检修。相对于“N”系统,“N+X”系统在UPS配置上有了一定的冗余,系统可靠性有所提高,同时带来了系统配置成本的增加、系统负荷率的降低以及效率降低。N+X系统在成本增加不多的前提下提高了可用性,因此,在数据中心得到了广泛的应用,但是该系统在UPS输出端仍然存在单故障点,实际项目中由此造成的系统宕机屡见不鲜。

为了消除单点故障,高等级数据中心通常采用2N冗余系统。该系统是指由两套或多套UPS系统组成的冗余系统,每套UPS系统N台UPS设备的总容量为系统的基本容量。该系统从交流输入经UPS设备直到双电源输入负载,完全是彼此隔离的两条供电线路,也就是说,在供电的整个路径中的所有环节和设备都是冗余配置的,正常运行时,每套UPS系统仅承担总负荷的一部分。这种多电源系统冗余的供电方式,克服单电源系统存在的单点故障瓶颈,对于少数单电源设备的情况,可通过安装小型STS设备,保证其供电可靠性。采用2N冗余系统可用性得到明显提高。2N冗余系统的缺点也非常明显,设备配置多、成本高,通常情况下效率比N+X系统更低。

“市电+U电”供电架构由百度提出并在2011年其自建M1数据中心规模应用,它在N+1系统基础上做了改进,UPS设备配置不变,将服务器等双电源设备的其中1路改由市电直接供电,消除了单点故障,可靠性较N+1系统大大提高,同时,UPS系统的损耗降低为原先的50%。UPS系统整体效率提升至95%以上。

图1.2.1 N+1冗余系统和“市电+U电”系统

1.3UPS ECO模式

前文已经提到,双转换在线式UPS配置有静态旁路,当正常情况下负载由旁路供电,交流输入中断后再切换至逆变由电池供电的运行模式,被称为ECO 模式,又称为经济运行模式,某些UPS厂家将此模式也称为ESS(节能系统)、SEM(超级节电模式)、VFD(基于电压和频率的模式),等等。

由于正常情况下电能不再经过整流和逆变两次转换,因此,整机效率有所提升,不少厂家声称的ECO模式效率高达99%,但是实测数据与此相差较大。图1.3.1是5种型号UPS ECO模式效率的实测数据。(注:图中“工频”表示可控硅整流机型,“高频”表示IGBT整流机型)

图1.3.1 UPS ECO模式实测效率曲线

对上述6个型号UPS在逆变工况和ECO工况实测效率做平均后的对比如图1.3.2。可见,不同产品ECO-逆变效率提升差异较大,30%负载率下,某些工频机效率仅提升2.69%,某些高频机效率提升可达5.89%,整机效率高达98%。

图1.3.2 UPS ECO和逆变模式实测效率对比曲线

UPS ECO模式带来了效率的提升,其代价是IT负载由市电供电,UPS必须不断监视市电状态,并在发现问题且当该问题尚未影响负载时,迅速切换到逆变器供电。这个听起来简单,但实际操作起来非常复杂并且需要承担很多风险以及潜在的负面影响。

经过对主流的3种品牌6个型号UPS实测的ECO和逆变切换时间,在大约100次切换中,UPS最大切换时间为6.6ms,满足IEC 标准62040-3,UPS 要求服务器等设备在瞬时断电10ms内时应能维持正常工作;以及ITIC标准,服务器等设备在瞬时断电20ms内时能维持正常工作的要求。采用UPS ECO模式不需要改变服务器电源,可以取得类似Facebook DC 48V离线供电的节能效果。

2.直流(HVDC)不间断电源系统

尽管所有国家的市电都是交流,但是IT设备内部都采用直流供电,这就为直流供电提供了可能。事实上,通信行业采用直流48V供电已经有几十年的历史,电力行业也长期采用直流220V作为断路器等设备的操作和控制电源。

传统UPS设备存在效率低、可靠性差、灵活性和扩展性差、故障后不易修复等问题,所以业内一直在寻找替换UPS的方案。

国外早在上世纪90年代就提出高电压直流供电的方案,如1999年日本代表INTELEC上发布《290V直流供电系统是电信和数据高效和可靠的供电系统》。真正有效的推动直流供电大规模应用,却发生在国内,2007年,中国电信结合DC48V和DC220V系统,提出DC240V系统并应用在江苏省自用的数据机房。随后,中国移动提出了DC336V的系统。

图2 是现有主流的高压直流供电系统图,与通信行业48V直流系统架构基本一致。与传统双转换在线式UPS系统的主要区别,是取消了逆变环节,蓄电池挂接在直流母线,与整流器并联,同时为IT设备供电。由于直流电源拓扑简单,因此故障率较UPS有所降低,因采用模块化设计,可在线维护。

图2 现有典型高压直流供电系统图

2.1DC240V or DC336V,电压等级的选择

采用高压直流供电架构遇到的第一个问题就是电压等级的选择。涉及系统效率、元器件耐压、配电设备耐压、配电线路的金属消耗、与蓄电池的匹配、对现有IT设备电源的匹配等因素,最重要的因素是对IT设备的兼容。

DC336V系统浮充电压为380V,采用单体2V电池168只,适用于有PFC 电路的IT设备或专为直流电源研制的IT设备,其优点是配电线路的金属消耗量小,转换效率高。其主要缺点是对现有IT设备的兼容性不如240V直流系统。

DC240V系统浮充电压为270V,采用单体2V电池120只,对现有IT设备的兼容性最好,由于电压较低,因此对人身的安全性较好,其主要缺点是配电线路的金属消耗最大,与DC336V相比,电源转换效率较低。

DC240系统在国内从提出到实施落地已经超过7年,保守估计,目前应有数以十万计的IT设备运行在DC240V系统下,其可行性得到较好的实践检验。其效率可以通过元件的选择以及采用离线架构(后文详述)弥补,将电源与负荷就近布置也可以抵消配电线路金属的消耗。综合考虑,建议选择DC240V。

2.2DC240V 系统的IT设备兼容性

IT设备电源模块的前端一般是一个桥式整流电路,从原理上看,输入由AC220V替换为DC240V可以工作,另外,中国电信等公司也做过一些IT设备DC240V供电兼容性的测试,有些资料宣称兼容性达98%以上。

不论原理如何,也不论其他公司兼容性测试数据有多高,当决定选用DC240V直流供电后,必须进行系统的兼容性测试,建议的测试内容至少包括:

正常电压、反复上下电、极性反接、误接地、欠压保护、缓慢上电、长时间工作7项内容。

一项对34款服务器、17款交换机所做的兼容性测试中,共有8款服务器电源、1款交换机电源不支持,服务器电源不兼容率高达24%;5款IT设备不支持正负极反接,这个需要在确定接口极性时特别注意;还有1款服务器在长时间(不小于3个月)测试中出现性能不稳定,经常宕机情况。有些双电源服务器的2个电源模块分别由不同的厂家提供,会有1个兼容另1个不兼容的情况。不做相关的测试,很难发现其中的问题,当大规模上线后再遇到问题,恐怕为时已晚。

2.3从在线(Online)到离线(Offline),节能到极致

与双变换在线式UPS应用类似,高压直流目前也以在线应用为主。所谓在线(Online),是指交流电能始终经HVDC整流后为IT设备供电,通常有6%以上的损耗;所谓离线(Offline),是指正常情况下市电直供IT设备,HVDC 仅为蓄电池提供浮充,市电中断后,转由蓄电池供电,在这种架构下,正常情况为IT设备供电的电能不经过HVDC转换,此部分损耗几乎可以忽略。因此节能效果显著。图2.3.1 –2.3.3显示了传统UPS、HVDC Online、HVDC Offline 在系统效率上的差异。

图2.3.1 传统UPS供电架构

图2.3.2 240V HVDC Online供电架构

图2.3.3 百度推出的HVDC Offline供电架构

HVDC Offline架构最大的问题在于IT设备供电的兼容性。毫无疑问,这种架构需要定制IT设备电源。

最简单的定制无需改变原有电源模块的硬件,只需修改控制软件,调整其中1个模块为热备状态,优点是实现简单,可靠性较高,缺点是热备模块的空载损耗较高;如果做更深度的定制,将备用模块处于休眠状态,可以进一步节省备用模块的空载损耗。

由于IT设备的峰值功耗和常载功耗有较大差异,另外IT设备的电源模块配置容量通常偏大,所以采用主备供电时,主用模块的负荷率容易进入效率较高区间,加上热备模块的空载损耗,IT电源的整体损耗与双路均分负载方式基本相当。

此方案还有一个潜在的收益,即IT设备主用模块负荷率提高后,输入端THDi明显降低,进一步降低谐波在线路及变压器上的传输损耗。

3.分布式不间断电源系统

UPS或HVDC通常采用集中式供电方案,集中式系统的优点是可以实现资源共享,降低成本,其缺点是系统故障范围大,影响面广。

UPS也有小型机分布式供电方案,但是多套分布式小型机系统与1套集中式大型UPS系统相比,小型机的数量多,故障点多,成本高,因此大中型数据中心不会采用分布式UPS系统。

尽管有如上问题,但是对于分布式不间断电源系统的探索,从来没有停止过。

3.1DC12V 分布式系统

谷歌是最早进行服务器自研定制的互联网公司,同时也最早放弃了集中式UPS电源方案,转将蓄电池分布到每台服务器电源直流12V输出端。详见图3.1。

图3.1 谷歌DC12V分布式供电架构

市电正常时,进入服务器电源转换成DC12V为服务器主板供电,同时为蓄电池提供浮充电源,市电停电后,由DC12V母线并联的蓄电池继续给主板供电,直到柴油发电机启动后回复交流供电。谷歌早期采用铅酸电池供电,因服务器内部高温导致铅酸电池故障率高,后改为锂电池方案。蓄电池的后备时间为分钟级(通常为1-3分钟)。

此方案的优点是大大简化了IT设备前端供电系统,缺点是服务器电源需要深度定制。

3.2DC48V 分布式系统

Facebook于2011年公开了其自建数据中心的资料,供电系统采用DC48V 离线备用系统。详见图3.2。

图3.2 Facebook DC48V分布式供电架构

Facebook为每6个9kW的机柜配置1个铅酸蓄电池柜,输出为DC48V,服务器电源采用AC277V和DC48V双输入,市电正常时作为主用,市电中断后由蓄电池输出DC48V为服务器供电。蓄电池后备时间为45秒。此方案的系统效率与240V HVDC Offline方案及DC12V分布式系统相当。

3.3DC240V 分布式系统

随着业内对数据中心能耗关注日益增强,国内近几年出现了一种新型的分布式DC240V电源设备,同样采用离线方案,市电正常时,直接输出市电电源,市电停电后,由内部锂电池提供DC240V输出。

这种方案的优势是IT设备无需定制,只要兼容DC240V供电即可。其缺点是电源内部存在AC220V和DC240V的切换,系统可靠性降低;锂电池串联数量多,单只电池故障会影响系统的可靠性。

从实际应用效果看,某互联网公司租用的数据中心一年中发生十几起电源故障,证明此架构还需完善。

4.总结和展望

根据以上讨论,可以看出数据中心不间断电源系统架构呈现如下两种趋势:第一,从在线到离线。UPS ECO模式、DC48V电池备用、DC12V电池备用、DC240V电池备用等本质上都是将电源离线,从而降低电源成本和运行损耗。

第二,从集中到分布。随着锂电池等新型储能设备的发展以及大数据时代服务器快速部署、灵活扩展的需要,不间断电源设备正在从集中到分布。

供电架构只有更好,没有最好,选择与业务匹配的技术才是最佳选择。对于追求稳定可靠的银行客户,UPS双总线架构可能是稳妥的选择;对于追求低成本、快速发展的互联网企业,将更青睐于分布式锂电池方案。

另一种格式的总结和展望:

过去,计算机作为一种非常娇贵的设备,双转换在线式UPS消除了市电电能质量问题,但带来了6-10%的电能损失以及其自身可靠性低的问题。

通过冗余可以提高系统可靠性,UPS发展出主备供电、N+1冗余并机、双

总线、分布冗余等方案,相应带来的是成本和能耗的进一步增加。

为了避免UPS设备故障率高的问题,国内提出并已规模部署了直流240V 电源系统,大部分IT设备可以直接兼容直流供电。

UPS ECO模式是一种离线供电方案,虽然效率较高,但是解决不了UPS设备故障率高和不便于维护的问题。

Facebook提出了48V直流电源设备离线运行的方案,降低了电源设备投资和损耗。48V系统的缺点是电压低,电流大,配电设备容量大,配电距离近,不仅投资高,而且蓄电池需靠近服务器机柜布置。

国内蓄电池的品质差,易产生漏液、着火等故障,因此这种方案直接应用于国内风险非常大。百度提出了240V高压直流离线应用的技术方案,蓄电池安装在专门的电池室,有效控制了安全风险,同时电源设备成本节省70%,电源效率提高到99.5%。

DC12V分布式锂电池方案可以简化前端供配电系统,加快部署速度,但是国内动辄15分钟以上的后备时间与谷歌分钟级(据估计3分钟左右)的后备时间相比,锂电池的配置增加3-5倍,相应成本和安全风险都成比例增加。

随着国内数据中心前端配电系统及发电机自动控制系统的完善以及运营水平的提升,蓄电池的后备时间一定会缩短,分布式锂电池供电系统将在互联网等行业数据中心迎来春天。

数据中心IRF虚拟化网络架构与应用

数据中心IRF虚拟化网络架构与应用
1 概述
网络已经成为企业IT运行的基石,随着IT业务的不断发展,企业的基础网络架构也不断调整和演化, 以支持上层不断变化的应用要求。 在传统数据中心网络的性能、安全、永续基础上,随着企业IT应用的展开,业务类型快速增长、运行 模式不断变化,给基础网络带来极大运维压力:需要不断变化结构、不断扩展。而传统的网络规划设计依 据高可靠思路,形成了冗余复杂的网状网结构,如图1所示。
图1 企业数据中心IT基础架构网状网 结构化网状网的物理拓扑在保持高可靠、故障容错、提升性能上有着极好的优势,是通用设计规则。 这样一种依赖于纯物理冗余拓扑的架构,在实际的运行维护中却同时也承担了极其繁冗的工作量。 多环的二层接入、full mesh的路由互联,网络中各种链路状态变化、节点运行故障都会引起预先规划配 置状态的变迁,带来运维诊断的复杂性;而应用的扩容、迁移对网络涉及更多的改造,复杂的网络环境下 甚至可能影响无关业务系统的正常运行。 因此,传统网络技术在支撑业务发展的同时,对运维人员提出的挑战是越来越严峻的。 随着上层应用不断发展,虚拟化技术、大规模集群技术广泛应用到企业IT中,作为底层基础架构的网 络,也进入新一轮技术革新时期。H3C提供的网络虚拟化技术IRF2,以极大简化网络逻辑架构、整合物理 节点、支撑上层应用快速变化为目标,实现IT网络运行的简捷化,改变了传统网络规划与设计的繁冗规则。

2
2.1
基于 IRF 虚拟化的数据中心 server farm 网络设计
数据中心的应用架构与服务器网络
对于上层应用系统而言,当前主流的业务架构主要基于C/S与B/S架构,从部署上,展现为多层架构的 方式,如图2所示,常见应用两层、三层、四层的部署方式都有,依赖于服务器处理能力、业务要求和性能、 扩展性等多种因素。
图2 多层应用架构 基础网络的构建是为上层应用服务,因此,针对应用系统的不同要求,数据中心服务器区的网络架构 提供了多种适应结构,如图3展示了4种H3C提供的常用网络拓扑结构:
图3 多种数据中心server farm结构 根据H3C的数据中心架构理解和产品组合能力,可提供独立的网络、安全、优化设备组网,也可以提 供基于框式交换平台集成安全、优化的网络架构。Server farm 1&2是一种扁平化架构,多层应用服务器

NIKE 项目数据中心网络架构方案

NIKE 项目数据中心网络架构方案 1.概述 (2) 2.系统需求分析 (2) 3.企业网络信息系统设计思路 (2) 4.企业网络信息系统建设原则 (2) 5.系统技术实现细节 (3) 5.1 网络拓扑图 (3) 5.2 Nike项目服务器技术实现细节 (4) 5.2.1双机备份方案 (4) 5.2.1.1.双机备份方案描述 (4) 5.2.1.2.双机备份方案的原理 (4) 5.2.1.3.双机备份方案的适用范围 (4) 5.2.1.4.双机备份的方式及优缺点 (4) 5.2.1.5双机方案建议 (4) 5.2.1.6磁盘阵列备份模式示意图 (5)

5.2.1.7双机方案网络拓扑图 (5) 5.2.1.8双机热备工作原理 (6) 6.备份 (6) 7.建议配置方案及设备清单..................................................7-8 1.概述 21世纪世界竞争的焦点将是信息的竞争,社会和经济的发展对信息资源、信息技术和信息产业的依赖程度越来越大,信息技术的发展对政治、经济、科技、教育、军事等诸多方面的发展产生了重大的影响,信息化是世界各国发展经济的共同选择,信息化程度已成为衡量一个国家,一个行业现代化的重要标志。 2.系统需求分析 由于此方案是专为NIKE项目数据中心设计,此数据中心是为数据信息提供传递、处理、存储服务的,为了满足企业高效运作对于正常运行时间的要求,因此,此数据中心在通信、电源、冷却、线缆与安全方面都必须要做到非常可靠和安全,并可适应不断的增长与变化的要求。 3.系统设计思路 企业网络信息系统的建设是为企业业务的发展服务,综合考虑公司信息系统当前背景和状况,其建设设计主要应达到如下目标: 1) 系统的设计应能满足公司对公用信息资源的共享需求,满足3PL及客户查询数据的共享需求,并为实现公用信息资源共享提供良好的网络环境,概括而言之就是能让相关人员顺利流畅的访问数据中心的Nike XpDX Server及我司的TMS等相关系统。与此同时,系统的建设还需要考虑到投入和产出两者间的关系,注意强调成本节约,提高效费比的问题。 2) 系统的设计必须充分考虑到建成后系统的管理维护问题。为此设计应强调系统的统一集中管理,尽量减少资源的分散管理,注重提高信息系统平台运营维护的工作效率。 3) 系统的设计还需要考虑建成后资源的合理利用问题,必须保证建成系统资源主要服务于设定需求,保证设计数据流量在网络中流畅通行。因此,必须保证只有设计的数据流量才能优先在网络中传递,对于设计外数据流量(例如互联网网页访问、网络下载、网络视频、网络音频、P2P、IM聊天)应通过技术

三种数据中心存储网络架构优缺点对比解析

三种数据中心存储网络架构优缺点对比解析 在分析三种数据中心存储网络架构的基础上,结合当前主魂的存储技术。对数据中心存健架构的典型性问题进行了分析,总结了不同存储架构的优缺点,并结合实际,况进行对比.通过多个维度的对比,描述了数据中心存储架构发展的趋势,为实际工作提供f要的参考依据和成果。 当前,国家电网公司正在开展信息系统容灾中心的建设工作。根据规划,将在北京、上海、西安统一建设3个集中式信息系统容灾中心,公司各单位按就近原则接入共享,从而形成全公司两级数据中心及3个集中式信息系统容灾中心的格局。容灾的功能将分为数据级容灾和应用级容灾2个阶段来实现。数据级阶段完成生产中心的业务数据备份,应用级阶段实现接管生产中心应用系统功能:即生产端由于自然灾害或其他原因发生亚务系统中断后。容灾中心利用本地的备份数据接管相应业务系统,保障公司对业务持续性的要求,且容灾中心将来能够平滑过渡到数据中心。这就要求容灾中心的建设要立足数据级、展望应用级并考虑向数据中心过渡,相应基础设施建设与系统实施工作要充分考虑容灾中心角色的转变。 存储技术在整个容灾中心乃至数据中心涉及的技术体系中占有重要地位。这不仅因为数据存储在上述3个阶段中处干基础性地位,而且还是因为它必须在容灾中心演进的过程中具有可靠性、可用性和可扩展性。鉴于存储网络的重要性和上述要求,需要了解和分析当前存储网络架构领城的技术。下面对3种存储网络技术进行介绍和对比,通过多个维度的考量,明确3种技术的优缺点。从而为国内各行业容灾中心、数据中心存储网络架构设计提供借鉴。 1、存储区域网 随着经济、社会的发展,人们对数据的请求方式越来越少地受到时间和空间的限制,数据的增长与需求不再有很强的规律性可循。然而,大盘的独立存储仍广泛存在干企业的数据中心中,很容易使数据分布呈现“信息孤岛”的局面,对数据的存储,利用和分析造成很大翅难。通常这些独立存储与业务系统相对应,随着数据的增长,对它们的扩容也经常出现顾此失彼的现象。如果一次性扩容较大,难免挤占其他系统的扩容预算,如果扩容较小,则会承受频繁扩容的压力。此类问题需要新的存储技术来解决。 存储区域网(SAN,Storage Area Network)是将存储设备(诸如磁盘阵列、磁带库等)与服务器连接起来并采用光纤接口的专用存储网络。它结构上允许服务器和任何存储磁盘阵列或磁带库相连、并直接存储所需数据。SAN架构如图1所示。

数据中心网络系统设计方案范本

数据中心网络系统 设计方案

数据中心高可用网络系统设计 数据中心作为承载企业业务的重要IT基础设施,承担着稳定运行和业务创新的重任。伴随着数据的集中,企业数据中心的建设及运维给信息部门带来了巨大的压力,“数据集中就意味着风险集中、响应集中、复杂度集中……”,数据中心出现故障的情况几乎不可避免。因此,数据中心解决方案需要着重关注如何尽量减小数据中心出现故障后对企业关键业务造成的影响。为了实现这一目标,首先应该要了解企业数据中心出现故障的类型以及该类型故障产生的影响。影响数据中心的故障主要分为如下几类: 硬件故障 软件故障 链路故障 电源/环境故障 资源利用问题 网络设计问题 本文针对网络的高可用设计做详细的阐述。 高可用数据中心网络设计思路

数据中心的故障类型众多,但故障所导致的结果却大同小异。即数据中心中的设备、链路或server发生故障,无法对外提供正常服务。缓解这些问题最简单的方式就是冗余设计,能够经过对设备、链路、Server提供备份,从而将故障对用户业务的影响降低到最小。 可是,一味的增加冗余设计是否就能够达到缓解故障影响的目的?有人可能会将网络可用性与冗余性等同起来。事实上,冗余性只是整个可用性架构中的一个方面。一味的强调冗余性有可能会降低可用性,减小冗余所带来的优点,因为冗余性在带来好处的同时也会带来一些如下缺点: 网络复杂度增加 网络支撑负担加重 配置和管理难度增加 因此,数据中心的高可用设计是一个综合的概念。在选用高可靠设备组件、提高网络的冗余性的同时,还需要加强网络构架及协议部署的优化,从而实现真正的高可用。设计一个高可用的数据中心网络,可参考类似OSI七层模型,在各个层面保证高可用,最终实现数据中心基础网络系统的高可用,如图1所示。

智慧政务云数据中心总体架构设计

智慧政务云数据中心总体架构设计

目录 第一章、项目总体设计 (3) 1.1、项目设计原则 (3) 1.1.1、统一建设 (3) 1.1.2、相对独立 (3) 1.1.3、共建共享 (3) 1.1.4、安全可靠 (3) 1.2、建设思路 (4) 1.2.1、需求驱动 (4) 1.2.2、标准先行 (4) 1.2.3、围绕数据 (4) 1.2.4、逐步扩展 (4) 1.3、数据中心总体结构设计 (5) 1.3.1、总体逻辑体系结构 (8) 1.3.1.1、信息资源体系 (8) 1.3.1.2、支撑体系 (9) 1.3.1.3、标准规范体系 (9) 1.3.1.4、运行管理体系 (10) 1.3.1.5、安全保障体系 (10) 1.3.2、总体实施结构设计 (10) 1.3.2.1、数据中心交换共享平台及信息资源 (11) 1.3.2.2、数据接口系统区 (12) 1.3.2.3、各部门系统 (12) 1.3.2.4、综合应用 (12) 1.3.3、总体物理体系结构 (12)

第一章、项目总体设计 1.1、项目设计原则 1.1.1、统一建设 数据中心必须统一规范建设。通过制定统一的数据交换与共享标准,建设统一的数据共享与交换平台和统一的前置机接口系统,可以避免重复投资,降低接口的复杂性,有效实现数据中心与业务部门以及业务部门之间的数据共享与数据交换,消除社会保障系统范围内的“信息孤岛”,实现数据资源的互联互通。 1.1.2、相对独立 根据数据中心的功能定位,数据中心的建设和运作必须保持业务系统的相对独立性。为此采用松散耦合方式,通过在业务部门统一配置接口系统实现数据资源整合。 1.1.3、共建共享 一方面建设数据中心的目的是为了实现业务部门之间的数据共享。 另一方面,数据中心的数据来源于各个业务部门,因此数据中心的建设必须依靠各业务部门的积极参与和配合。 1.1.4、安全可靠 由于社会保障数据与广大社会保障对象的切身利益密切相关,所以数据中心的安全是非常重要的。因此,必须要做好系统的安全设计,防范各种安全风险,确保数据中心能够安全可靠的运行。同时数据中心必须采用成熟的技术和体系结构,采用高质量的产品,并且要具有一定的容灾功能。

数据中心 新一代医院信息系统的核心架构

新一代医院信息系统的核心架数据 中心 构 数据中心:新一代医院信息系统的核心架构一、前言多年的历程了,从总体上走过了从单用户的应20我国的医院信息化已经经历了多年中,医院信20用,到部门级应用和全院级管理信息系统应用这三个阶段。这息系统从早期以财务、药品和管理为中心初级应用,发展到今天以病人信息为中心的临床业务支持和电子病历应用。近年来随着新医改的深入,医院信息化也从典型的院内应用发展到整个区域医疗信息化的有机组成部分。今天的医院信息化已经成为医院的医疗活动和管理活动必不可少的支撑手段,我们很难想象没有相关的医院信息系统的支撑,医院的门诊和住院业务如何能够进行。在医院业务的几乎每一个环节,都能发现有相关信息系统在运转:收费、药房药库、检验检查、放射、医嘱、查房、手术麻醉、病人膳食…信息系统应用在医院几平是无处不在。在医院信息系统应用沿着广度和深度两个维度不断发展同时,我们也感受到医院信息化的发展遇到越来越多的问题。应该说这二十多年来,信息技术的各个方面,无论是计算技术、存储技术、集成技术、能源技术等方面都取了长足的发展,相关技术和产品医院信息化的各个环节也级服务器系统和小型机计PC有了不同程度的应用。计算能力方面,越来越先进的无论是传统的(算系统进入到医院;数据存储方面,所有类型的大规模存储产品都在医院信息化中有了应用;应用开发方面,)IP-SAN 架构、IP构架还是架构SAN消息总线等应用集成手段也在应用开发中得到使用;其他如最先进的备份产品、电源产品、网络产品、安全产品等也在医院里经常可以看到。虽然所有最先进的信息技术已经在医院信息化中得到了应用,但我们感觉医院信息应用的易管理性、实时性、可靠性、安全性、易扩展性等方面仍然存在着众多的问题。 本文尝试通过对医院发展到现阶段所遇到的主要问题的深入分析,并借鉴其他行业建设经验,来探讨高度复杂系统的典型实例医院信息系统建设中应用数据IT 成熟中心架构来解决相关问题的可能性。二、当前医院信息化遇到的主要问题、应用集成问题凸显1情境已不再是医院信息系统的典型系统)Single Vendor(同一产品提供商我们发现市场的流行语。各个厂HIS状态。曾几何时,完整的应用系统产品线提供商是一个商者把能提供全系列的医院信息系统模块作为自己发 展方向和市场定位。医院在采购各种模块的时候,也把同一厂商作为采购时候

浅谈数据中心网络架构的发展【Fabic含义】

浅谈数据中心网络架构的发展 一、传统数据中心网络架构 数据中心前端计算网络主要由大量的二层接入设备及少量的三层设备组成,传统上是标准的三层结构(如图1所示): 图1 传统数据中心网络三层架构 传统的网络模型在很长一段时间内,支撑了各种类型的数据中心,但随着互联网的发展以及企业IT信息化水平的提高,新的应用类型及数量急剧增长。随着数据中心规模的不断膨胀,以及虚拟化、云计算等新技术的不断发展,仅仅使用传统的网络技术越来越无法适应业务发展的需要。在互联网领域,这一点表现的尤为明显。 二、数据中心网络的新变化 截至2013年12月,中国网民规模达6.18亿,全年共计新增网民5358万人,互联网普及率为45.8%。大量网民的涌入必然带来网络流量的急剧膨胀。对于互联网企业,承载具体应用的数据中心的计算资源及网络节点常常满负荷运转;而

对于传统企业,随着自身业务量的增加,以及各类业务互联网化的需求,对数据中心的整体的吞吐量也提出了新的要求。 服务器万兆网络接入渐成主流 受成本、以及技术成熟度制约,传统数据中心以千兆接入为主。随着CPU 计算能力的不断提高,目前主流的服务器处理性能,已经超出了千兆网卡的输出能力。同时,FC存储网络与IP网络的融合,也要求IP网络的接入速率达到FC 的性能要求。当仅仅通过链路聚合、增加等价路径等技术手段已经无法满足业务对网络性能的需求时,提高网络端口速率成为必然之选。 万兆以太网从起步到目前逐渐成为应用主流,延续了以太网技术发展的主基调,凭借其技术优势,替代其他网络接入技术,成为高性能网络的不二选择。目前新的数据中心,万兆网络接入已成为事实上的标准。 数据中心流量模型发生显著变化 传统的数据中心内,服务器主要用于对外提供业务访问,不同的业务通过安全分区及VLAN隔离。一个分区通常集中了该业务所需的计算、网络及存储资源,不同的分区之间或者禁止互访,或者经由核心交换通过三层网络交互,数据中心的网络流量大部分集中于南北向。 在这种设计下,不同分区间计算资源无法共享,资源利用率低下的问题越来越突出。通过虚拟化技术、云计算管理技术等,将各个分区间的资源进行池化,实现数据中心内资源的有效利用。而随着这些新技术的兴起和应用,新的业务需求如虚拟机迁移、数据同步、数据备份、协同计算等在数据中心内开始实现部署,数据中心内部东西向流量开始大幅度增加。 物理二层向逻辑二层转变 在虚拟化初期,虚拟机管理及迁移主要依靠物理的网络,由于迁移本身要求二层网络,因此数据中心内部东西向流量主要是二层流量。为增加二层物理网络的规模,并提高链路利用率,出现了TRILL、SPB等大二层网络技术。

数据中心建设架构设计

数据中心架构建设计方案建议书 1、数据中心网络功能区分区说明 功能区说明 图1:数据中心网络拓扑图 数据中心网络通过防火墙和交换机等网络安全设备分隔为个功能区:互联网区、应用服务器区、核心数据区、存储数据区、管理区和测试区。可通过在防火墙上设置策略来灵活控制各功能区之间的访问。各功能区拓扑结构应保持基本一致,并可根据需要新增功能区。 在安全级别的设定上,互联网区最低,应用区次之,测试区等,核心数据区和存储数据区最高。 数据中心网络采用冗余设计,实现网络设备、线路的冗余备份以保证较高的可靠性。 互联网区网络 外联区位于第一道防火墙之外,是数据中心网络的Internet接口,提供与Internet高速、可靠的连接,保证客户通过Internet访问支付中心。 根据中国南电信、北联通的网络分割现状,数据中心同时申请中国电信、中国联通各1条Internet线路。实现自动为来访用户选择最优的网络线路,保证优质的网络访问服务。当1条线路出现故障时,所有访问自动切换到另1条线路,即实现线路的冗余备份。

但随着移动互联网的迅猛发展,将来一定会有中国移动接入的需求,互联区网络为未来增加中国移动(铁通)链路接入提供了硬件准备,无需增加硬件便可以接入更多互联网接入链路。 外联区网络设备主要有:2台高性能链路负载均衡设备F5 LC1600,此交换机不断能够支持链路负载,通过DNS智能选择最佳线路给接入用户,同时确保其中一条链路发生故障后,另外一条链路能够迅速接管。互联网区使用交换机可以利用现有二层交换机,也可以通过VLAN方式从核心交换机上借用端口。 交换机具有端口镜像功能,并且每台交换机至少保留4个未使用端口,以便未来网络入侵检测器、网络流量分析仪等设备等接入。 建议未来在此处部署应用防火墙产品,以防止黑客在应用层上对应用系统的攻击。 应用服务器区网络 应用服务器区位于防火墙内,主要用于放置WEB服务器、应用服务器等。所有应用服务器和web服务器可以通过F5 BigIP1600实现服务器负载均衡。 外网防火墙均应采用千兆高性能防火墙。防火墙采用模块式设计,具有端口扩展能力,以满足未来扩展功能区的需要。 在此区部署服务器负载均衡交换机,实现服务器的负载均衡。也可以采用F5虚拟化版本,即无需硬件,只需要使用软件就可以象一台虚拟服务器一样,运行在vmware ESXi上。 数据库区

云计算数据中心架构

云计算数据中心架构 胡经国 本文作者的话 本文是根据有关文献和资料编写的《漫话云计算》系列文稿之一。现作为云计算学习笔录,奉献给云计算业外读者进一步学习和研究的参考。希望能够得到大家的指教和喜欢! 下面是正文 对于云计算而言,应着重从高端服务器、高密度低成本服务器、海量存储设备和高性能计算设备等基础设施领域,提高云计算数据中心的数据处理能力。 云计算要求基础设施具有良好的弹性、扩展性、自动化、数据移动、多租户、空间效率和对虚拟化的支持。那么,云计算环境下的数据中心基础设施各部分的架构,应该是什么样的呢? 一、云计算数据中心总体架构 云计算数据中心总体架构,分为服务和管理两大部分。 1、服务部分 服务部分主要以提供给用户的基于云的各种服务为主。它包括以下3个层次(服务模式):基础设施即服务IaaS、平台即服务PaaS、软件即服务SaaS。 2、管理部分 管理部分主要以云的管理层为主。它的功能是:确保整个云计算中心能够安全、稳定地运行,并且能够被有效管理。 云计算数据中心总体架构包括:中心机房架构、网络系统架构、主机系统架构、储存系统架构和应用平台架构。 二、云计算数据中心机房架构 根据多年的经验,为满足云计算服务弹性的需要,云计算数据中心机房采用标准化、模块化的机房设计架构。模块化机房包括:集装箱模块化机房和楼宇模块化机房。 1、集装箱模块化机房 集装箱模块化机房,在室外无机房场景下应用。减轻了建设方在机房选址方面的压力,帮助建设方将原来半年的建设周期缩短到两个月;而能耗仅为传

统机房的50%;可适应沙漠炎热干旱地区和极地严寒地区的极端恶劣环境。 2、楼宇模块化机房 楼宇模块化机房,采用冷热风道隔离、精确送风、室外冷源等领先制冷技术;可适用于大中型数据中心的积木化建设和扩展。 三、云计算数据中心网络系统架构 1、设计理念 网络系统总体架构规划,应坚持区域化、层次化、模块化的设计理念,使网络层次更加清楚、功能更加明确。 2、规划内容 数据中心网络,根据业务性质或网络设备的作用进行区域划分,可从以下几方面的内容进行规划。 ⑴、按照传送数据业务性质和面向用户的不同,网络系统可以划分为:内部核心网、远程业务专网、公众服务网等区域。 ⑵、按照网络结构中设备作用的不同,网络系统可以划分为:核心层、汇聚层、接入层。 ⑶、从网络服务的数据应用业务的独立性、各业务的互访关系及业务的安全隔离需求综合考虑,网络系统在逻辑上可以划分为:存储区、应用业务区、前置区、系统管理区、托管区、外联网络接入区、内部网络接入区等。 3、Fabric网络架构 此外,还有一种Fabric网络架构。在数据中心部署云计算之后,传统的网络架构有可能使网络延迟问题成为一大瓶颈。这就使得在服务器之间的低延迟通信和更高的双向带宽的需要,变得更加迫切。这就需要网络架构向扁平化方向发展。最终的目标是:在任意两点之间尽量减少网络架构的数目。 Fabric网络架构的关键之一,就是“消除网络层级”的概念。Fabric网络架构,可以利用阵列技术来扁平化网络;可以将传统的三层结构压缩为二层;并最终转变为一层;通过实现任意点之间的连接,来消除复杂性和网络延迟。 例如,在服务超过10亿用户的情况下,需要重新设计网络架构。而使用新的Fabric网络架构目的就在于,保证在社交网络流量不断扩张的情况下,网站能够保持正常运行。不过,Fabric这个新技术,目前还没有统一的标准。其推广应用还有待更多的实践。 链接:Fabric Fabric是IBM公司推出的企业级区块链。2017年,IBM公司将其贡献给了Hypherlegder项目。Fabric和Sawtooth是Hypherlegder的两个重要企业级项目。

H C数据中心网络架构

最佳实践组网图 1、数据中心二层网流结构(核心/接入)组网图 2、数据中心三层网络结构(核心/汇聚/接入)组网图 3、 FW/IPS/SLB旁挂方案组网图 4、高密度服务器接入组网图 5、高密度服务器接入组网图 6、高密度服务器接入组网图 7、多服务器集中存储解决方案组网图 8、双机双阵列存储集群解决方案组网图 9、 D2D备份解决方案组网图 10、近线CDP解决方案组网图 11、远程容灾备份解决方案(IX1000)组网图 12、WSAN广域数据集中解决方案组网图 H3C新一代数据中心解决方案 数据中心是数据大集中而形成的集成IT应用环境,是各种业务的提供中心,是数据处理、数据存储和数据交换的中心。近年来,数据中心建设成为全球各行业的IT建设重点,国内数据中心建设的投资年增长率更是超过20%,金融、制造业、政府、能源、交通、教育、互联网和运营商等各个行业正在规划、建设和改造各自的数据中心。随着企业信息化的深入和新技术的广泛使用,传统数据中 心已经无法满足后数据中心时代的高效、敏捷、易维护的需求。 H3C基于在数据通信领域的长期技术积累,推出了新一代数据中心解决方案,目标是在以太网和IP 技术的基础上,实现数据中心基础网络架构的融合,物理及虚拟资源的统一接入,安全策略的统一 部署和数据中心资源的统一管理,以帮助用户简化传统数据中心的基础架构、加固核心数据的保护、优化数据中心的应用性能,为用户提供即可靠安全又高效敏捷的新一代数据中心。 新一代数据中心之---- 融合 随着企业信息化发展的不断深入和信息量的爆炸式增长,数据中心正面临着前所未有的挑战。从数 据中心的网络结构看,存在相对独立的两张以上网络:数据网(Data)、存储网(SAN)、HPC 集群网,基本现状如下: ·数据中心的前端访问接口通常采用以太网进行互联而成,构成了一张高速运转的数据网络; ·数据中心后端的存储更多的是采用NAS、FC SAN等; ·服务器的并行计算则大多采用Infiniband或以太网

1云数据中心网络演进1

第1章云数据中心网络演进 1 1.1传统的3-Tier架构 1 1.2设备“多虚一”——虚拟机框 2 1.2.1Cisco VSS 2 1.2.2Juniper VC与H3C IRF 4 1.3高级STP欺骗——跨设备链路聚合 4 1.3.1Cisco vPC 4 1.3.2Juniper MC-LAG和Arista M-LAG 6 1.4变革3-Tier——向Leaf-Spine演进 6 1.5初识大二层9 1.6插叙——虚拟机的接入10 1.6.1VEB 10 1.6.2Cisco VN-TAG 11 1.6.3VEPA 12 1.6.4VEB性能优化13 1.7消除STP——Underlay L2MP 14 1.7.1TRILL 15 1.7.2SPB 17 1.8Cisco私有的大二层——FabricPath 19 1.8.1整体设计19 1.8.2控制与转发过程分析21 1.8.3其他技术细节25 1.9Juniper私有的大二层——QFabric 25 1.9.1整体设计26 1.9.2集中式的控制机制29 1.9.3控制与转发过程分析30 1.10Brocade私有的大二层——VCS 32 1.10.1整体设计33 1.10.2控制与转发过程分析33 1.10.3其他技术细节35 1.11跨越数据中心的二层——DCI优化36 1.11.1Cisco OTV 36 1.11.2HUAWEI EVN与H3C EVI 38 1.12端到端的二层——NVo3的崛起39 1.1 2.1VxLAN 39 1.1 2.2NvGRE 41 1.1 2.3STT 42 1.1 2.4Geneve 43 1.13新时代的开启——SDN入场45 1.14Overlay最新技术——EVPN 46 1.14.1传统网络对SDN的反击46 1.14.2组网与数据模型47 1.14.3控制信令的设计48

智慧政务数据中心平台总体设计方案

智慧政务数据中心平台总体设计方案

目录 第1章项目整体理解与分析 (2) 1.1项目概述 (2) 1.1.1建设背景 (2) 1.1.2建设目标 (4) 1.1.3建设内容 (5) 1.1.4建设标准 (6) 1.1.5建设原则 (8) 1.2项目建设需求分析 (9) 1.2.1信息化建设现状 (9) 1.2.2信息资源管理现状 (11) 1.2.3存在的主要问题 (12) 1.2.4本期项目建设意义 (13) 1.2.5标准与规范分析 (13) 1.2.6流程与功能分析 (14) 1.2.7用户角色分析 (14) 第2章项目总体设计方案 (16) 2.1数据中心总体架构 (16) 2.2总体标准规范架构 (17) 2.3目录系统业务架构 (18) 2.4目录系统技术架构 (19) 2.5目录系统数据结构 (20)

第1章项目整体理解与分析 1.1 项目概述 1.1.1建设背景 在信息化时代背景下,数据资源的多寡、数据质量的高低直接决定着各类社会主体的运作效率,数据分析应用能力也影响着决策者前面的方向,对数据的全面搜集和有效挖掘利用已经成为当今世界各国信息化建设的重要内容。 智慧城市顶层设计总规中用系统论的方法,以全局视角,明确了全局性的构成要素和体系结构,提出了清晰、协同、可实施的方案。该设计中分政府主导领域和市场主导领域,从市级、部门和区县三个层次,系统地开展全市顶层设计。其中,在政府主导领域,明确由决策分析与公众服务统领全局发展。并以此为依据,出台了数据中心辅助决策平台顶层设计,明确要建立各区县、各行业建设区县数据中心辅助决策平台。 政府也提出加强数据中心工作,在区领导、创新办就多次提出要加强数据整合、共享和分析,支撑领导决策能力,并从多方面已具备了开展数据中心建设的基础。 在理论研究方面,2012年开展了《网格化社会服务管理基础数据架构、信息资源利用模式及服务体系研究》项目,在基础数据架构方面,提出了基于配置开放式基础数据架构设计理念的“三层四区”的基础库总体架构;在信息资源开发利用方面,提出了“四横两纵”的信息资源开发利用框架,设计了“1图(基础地图)、1库(人房关联主题库)、1表(重大事件跟踪表)、1报(民情日报)、1刊(便民服务快刊)、1年鉴(网格化年鉴)”6大数据产品,;在云服务中心服务体系方面,提出了云服务中心内容体系、流程规范、组织架构、运行模式和支撑平台需求,为数据中心决策支持系统建设工作的开展奠定了理论基础,并为其实施提供了指导意见。 在数据资源方面,通过网格化社会服务管理工作,充分利用现有资源,挖掘数据关系,建成了相互关联的人、地、物、组织、房屋、地下空间基础数据库的建设,整合了120多万条基础数据,其中常驻人口953,998条、流动人口220,444

云数据中心架构

云计算下的数据中心架构 来源:机房360 作者:程应军陈鹰更新时间:2011-12-26 10:13:15 摘要:目前最引人关注的的IT 概念非“云计算”莫属,云计算已经成为当今IT 界乃至全球商界最为津津乐道的一个新概念。云计算是指利用大规模的数据中心或超级计算机集群,通过互联网将计算资源免费或按需租用方式提供给使用者。 云计算的一个重要应用在于由第三方机构提供云计算数据中心,并为大量的中小企业提供远程共享式的云计算应用服务。使得这些企业不需要建设自己的数据中心就可以使用所需的计算资源,实现成本最优化、资源共享最大化。 云计算,应当高度贴合网络未来更高层次的发展趋势,着力于提高网络数据处理和存储能力,致力于低碳高效的利用基础资源。具体而言,应着重从高端服务器、高密度低成本服务器、海量存储设备和高性能计算设备等基础设施领域提高云计算数据中心的数据处理能力。云计算要求基础设施具有良好的弹性、扩展性、自动化、数据移动、多租户、空间效率和对虚拟化的支持。那么,云计算环境下的数据中心基础设施各部分的架构应该是什么样的 呢? 1、云计算数据中心总体架构 云计算架构分为服务和管理两大部分。在服务方面,主要以提供用户基于云的各种服务为主,共包含3个层次:基础设施即服务IaaS、平台即服务PaaS、软件即服务SaaS。在管理方面,主要以云的管理层为主,它的功能是确保整个云计算中心能够安全、稳定地运行,并且能够被有效管理。其总体架构如下图。

2、云计算机房架构 根据长城电子公司多年的经验,为满足云计算服务弹性的需要,云计算机房采用标准化、模块化的机房设计架构。模块化机房包括集装箱模块化机房和楼宇模块化机房。集装箱模块化机房在室外无机房场景下应用,减轻了建设方在机房选址方面的压力,帮助建设方将原来半年的建设周期缩短到两个月,而能耗仅为传统机房的50%,可适应沙漠炎热干旱地区和极地严寒地区的极端恶劣环境。楼宇模块化机房采用冷热风道隔离、精确送风、室外冷源等领先制冷技术,可适用于大中型数据中心的积木化建设和扩展。 3、云计算网络系统架构 网络系统总体结构规划应坚持区域化、层次化、模块化的设计理念,使网络层次更加清楚、功能更加明确。数据中心网络根据业务性质或网络设备的作用进行区域划分,可从以下几方面的内容进行规划。 1)按照传送数据业务性质和面向用户的不同,网络系统可以划分为内部核心网、远程业务专网、公众服务网等区域。 2)按照网络结构中设备作用的不同,网络系统可以划分为核心层、汇聚层、接入层。 3)从网络服务的数据应用业务的独立性、各业务的互访关系及业务的安全隔离需求综合考虑,网络系统在逻辑上可以划分为存储区、应用业务区、前置区、系统管理区、托管区、

数据中心网络架构

数据中心网络架构 7.6.2.3.1、网络核心 网络核心由2台双引擎万兆交换机构成,通过千兆实现各个功能分区的接入,同时交换机之间采用双千兆捆绑的方式实现高速互联。 为了保证各个功能分区的高可靠性,与各个功能分区的汇聚交换机或接入交换机采用双链路冗余连接。 网络为二层架构,要采用千兆接入层交换通过千兆线路上行到两台核心交换层交换机。服务器接入采用双网卡千兆上行,接入交换机采用万兆上行到核心交换机。 应急信息系统对网络安全、信息安全有着很高的要求,因此通过合理的防火墙、IPS和ASE部署,可以使网络对非法请求、异常攻击和病毒具有非常好的防御,同时可以对各种敏感和非法信息、网址和电子邮件进行有效的过滤。 7.6.2.3.2、全交换网络 建议采用全交换网络来保证网络的高性能。应急指挥中心服务器群规模不大,网络结构采用两层交换机即可。 在核心汇聚层采用高性能核心交换机,未采用路由器,主要的考虑基于以下两点: (1)交换机性能高,接口密度高,适合在数据中心的核心位置部署;相比而言路由器的性能和接口密度则远低于交换机; (2)交换机设备工作在二层,业务扩展灵活方便;

7.6.2.3.3、服务器接入的二层模式 在工作模式上,核心汇聚交换机工作在路由模式(三层),服务器接入层交换机工作在交换(二层)模式。 三层接入的好处在于配置管理相对简单,上行汇聚设备的报文比较“纯净”,都是单播报文。而三层接入的问题主要在服务器扩展性、灵活性以及L4/L7设备的部署上。 对于应急系统来说,服务器的扩展能力是一个非常重要的问题,在实际的部署中,经常会要求服务器之间做二层邻接,如果采用二层接入,可以很方便的实现VLAN的部署。 三层接入带来的另一个问题是L4/L7设备(如服务器Load-Balacne)的部署。Load-Balance通常部署在汇聚层,可以实现对服务器访问流量的分担,以及服务器健康状态的检查,对于某些负载均衡算法或服务器健康检查算法来说,必须要求服务器和Load-balance设备二层邻接,因此数据中心不建议采用三层接入。 对于二层接入方式,可以通过MSTP或SmartLink技术解决链路冗余问题。在MSTP中,端口的阻塞是逻辑上的,只对某些STP实例进行阻塞,一个端口可能对一个STP实例阻塞,但对另一个STP实例是可以转发的。合理的使用MSTP,可以做到链路的负载分担。而且,因为映射到一个MSTP实例的VLAN 可以灵活控制,并且引入了域的概念,使得MSTP在部署时有很好的扩展性。SmartLink提供了一种二层链路冗余技术,可以部分替代STP的功能,并且保证200毫秒的链路切换时间,可应用在HA要求较高的环境。 因此建议在数据中心的服务器区采用二层接入方式。 根据应急指挥应急指挥系统的需求,数据中心由以下几个功能区组成: (1)核心网络区: 由高速网络交换机组成,提供核心交换能力,同时部署安全和应用优化设备,保证数据安全和系统性能。 (2)核心数据库区: 由运行HA 系统的高效UNIX 主机组成,提供数据高速访问能力(3)应用区:

从传统网络架构到SDN化演进方案

从传统网络架构到SDN化演进方案甜橙金融数据中心演进之路

前言: 网络世界每一次技术变革都需要大量时间来验证,虽然更多的技术达人对于新技术的接受能力在不断提高,但新技术的普及和应用依然需要花费大量时间。企业在发展过程中缩减预算的需求不断扩大,企业员工则通过自动化的维护平台设施来简化操作步骤,而网络世界的争论点主要集中在如何从使软件定义网络与网络虚拟化的新架构代替传统以太网架构。 STP架构网络的替代品Fabrics具有可扩展、高带宽的架构。对于SDN来说,SDN可能不像一个产品,更像一种架构。首先我们来看一下SDN与传统网络架构的区别: 一、传统数据中心网络架构逐渐落伍 在传统的大型数据中心,网络通常是三层结构。架构模型包含了以下三层: ?Access Layer(接入层):接入层位与网络的最底层,负责所有终端设备的接入工作,并确保各终端设备可以通过网络进行数据包的传递。 ?Aggregation Layer(汇聚层):汇聚层位于接入层和核心层之间。该层可以通过实现ACL 等其他过滤器来提供区域的定义。 ?Core Layer(核心层):又被称为网络的骨干。该层的网络设备为所有的数据包包提供高速转发,通过L3路由网络将各个区域进行连接,保证各区域内部终端设备的路由可达。

一般情况下,传统网络还存在着一些优点: ?精确的过滤器/策略创建和应用:由于区域、终端地址网段明确,可以精细控制网络策略,保证流量的安全。 ?稳定的网络:区域的明确划分,网络设备的稳定架构,使网络更具有稳定性。 ?广播域的有效控制:由于三层架构中间采用L3模式设计,有效控制广播域的大小。 传统网络架构虽然稳定,但随着技术的不断发展,应用不断的多元化以及对业务的高冗余化的需求,暴露出了一些传统网络的弊端。

云计算背景下数据中心网络架构设计与技术研究

龙源期刊网 https://www.360docs.net/doc/a98350928.html, 云计算背景下数据中心网络架构设计与技术研究 作者:严岳林黄志远张航方成彬 来源:《移动通信》2013年第20期 近年来以互联网为代表的数据通信业务发展迅速,云计算是互联网时代信息基础设施与应用服务模式的重要形态。首先介绍了互联网数据中心的网络架构、设计原则与目标,其中重点对云计算背景下IDC的网络技术的新特点和新技术进行了细致的分析研究,并提出实际案例 来证实新技术的重要性及可靠性。 IDC 云计算数据中心网络大二层网络 Research on Data Center Network Structure Design and Technology in the Background of Cloud Computing YAN Yue-lin1, HUANG Zhi-yuan1, ZHANG Hang2, FANG Cheng-bin2 (1. Guangdong.China Mobile,Zhuhai Branch, Zhuhai 519000, China; 2. Huaxin Post & Telecom Consulting and Designing Institute Co., Ltd., Hangzhou 310000,China;) In recent years, the data communication services have grown rapidly, represented by the Internet. Cloud computing is the important form of information infrastructure and application service mode in the age of Internet. At first, the network structure, design principles and targets of the Internet Data Center (IDC) is presented, specially the new characteristics and technologies of network in the background of cloud computing is analyzed in-depth, which proves to be important and reliable by the practical case proposed. IDC cloud computing data center network big two-layer network 1 引言 在信息时代,以互联网为代表的数据通信业务发展迅速,企业和政府信息化建设飞速进行,互联网数据中心(IDC)业务在此背景下应运而生。它是以电信级机房和网络资源为依托,以高水平专业化技术队伍为支撑,为各类客户提供设备托管及相关增值服务,并定期向客户收取相应服务费用的一种产品。

数据中心网络系统设计方案及对策

数据中心高可用网络系统设计 数据中心作为承载企业业务的重要IT基础设施,承担着稳定运行和业务创新的重任。伴随着数据的集中,企业数据中心的建设及运维给信息部门带来了巨大的压力,“数据集中就意味着风险集中、响应集中、复杂度集中……”,数据中心出现故障的情况几乎不可避免。因此,数据中心解决方案需要着重关注如何尽量减小数据中心出现故障后对企业关键业务造成的影响。为了实现这一目标,首先应该要了解企业数据中心出现故障的类型以及该类型故障产生的影响。影响数据中心的故障主要分为如下几类: 硬件故障 软件故障 链路故障 电源/环境故障 资源利用问题 网络设计问题 本文针对网络的高可用设计做详细的阐述。 高可用数据中心网络设计思路 数据中心的故障类型众多,但故障所导致的结果却大同小异。即数据中心中的设备、链路或server发生故障,无法对外提供正常服务。缓解这些问题最简单的方式就是冗余设计,可以通过对设备、链路、Server提供备份,从而将故障对用户业务的影响降低到最小。 但是,一味的增加冗余设计是否就可以达到缓解故障影响的目的?有人可能会将网络可用性与冗余性等同起来。事实上,冗余性只是整个可用性架构中的一个方面。一味的强调冗余性有可能会降低可用性,减小冗余所带来的优点,因为冗余性在带来好处的同时也会带来一些如下缺点: 网络复杂度增加 网络支撑负担加重 配置和管理难度增加 因此,数据中心的高可用设计是一个综合的概念。在选用高可靠设备组件、提高网络的冗余性的同时,还需要加强网络构架及协议部署的优化,从而实现真

正的高可用。设计一个高可用的数据中心网络,可参考类似OSI七层模型,在各个层面保证高可用,最终实现数据中心基础网络系统的高可用,如图1所示。 图1 数据中心高可用系统设计层次模型 数据中心网络架构高可用设计 企业在进行数据中心架构规划设计时,一般需要按照模块化、层次化原则进行,避免在后续规模越来越大的情况再进行大规模的整改,造成时间与投资浪费。 模块化设计 模块化设计是指在对一定范围内的不同功能或相同功能不同性能、不同规格的应用进行功能分析的基础上,划分并设计出一系列功能模块,模块之间松耦合,力求在满足业务应用要求的基础上使网络稳定可靠、易于扩展、结构简单、易于维护。 不同企业的应用系统可能有一定的差异。在网络层面,根据应用系统的重要性、流量特征和用户特征的不同,可大致分为以下几个区域,如图2所示。

云计算数据中心

云时代需要怎样的数据中心架构? 云计算要求基础设施具有良好的弹性、扩展性、自动化、数据移动、多租户、空间效率和对虚拟化的支持。那么,云计算环境下的数据中心基础设施各部分的架构应该是什么样的呢? 1、云计算数据中心总体架构 云计算架构分为服务和管理两大部分。在服务方面,主要以提供用户基于云的各种服务为主,共包含3个层次:基础设施即服务IaaS、平台即服务PaaS、软件即服务SaaS.在管理方面,主要以云的管理层为主,它的功能是确保整个云计算中心能够安全、稳定地运行,并且能够被有效管理。 2、云计算机房架构 根据长城电子公司多年的经验,为满足云计算服务弹性的需要,云计算机房采用标准化、模块化的机房设计架构。模块化机房包括集装箱模块化机房和楼宇模块化机房。 集装箱模块化机房在室外无机房场景下应用,减轻了建设方在机房选址方面的压力,帮助建设方将原来半年的建设周期缩短到两个月,而能耗仅为传统机房的50%,可适应沙漠炎热干旱地区和极地严寒地区的极端恶劣环境。楼宇模块化机房采用冷热风道隔离、精确送风、室外冷源等领先制冷技术,可适用于大中型数据中心的积木化建设和扩展。 3、云计算网络系统架构 网络系统总体结构规划应坚持区域化、层次化、模块化的设计理念,使网络层次更加清楚、功能更加明确。数据中心网络根据业务性质或网络设备的作用进行区域划分,可从以下几方面的内容进行规划。 1)按照传送数据业务性质和面向用户的不同,网络系统可以划分为内部核心网、远程业务专网、公众服务网等区域。 2)按照网络结构中设备作用的不同,网络系统可以划分为核心层、汇聚层、接入层。 3)从网络服务的数据应用业务的独立性、各业务的互访关系及业务的安全隔离需求综合考虑,网络系统在逻辑上可以划分为存储区、应用业务区、前置区、系统管理区、服务器托管、外联网络接入区、内部网络接入区等。

相关文档
最新文档