双活数据中心方案

双活数据中心方案
双活数据中心方案

双活数据中心方案

双活数据中心方案

一、需求背景:

随着数据的大集中,银行纷纷建设了负责本行各业务处理的生产数据中心机房(一般称为数据中心),数据中心因其负担了全行业务,因此其并发业务负荷能力和不间断运行能力是评价一个数据中心成熟与否的关键性指标。

近年来,随着网上银行、手机银行等各种互联网业务的迅猛发展,银行数据中心的业务压力业成倍增加,用户对于业务访问质量的要求也越来越高,保障业务系统的7*24小时连续运营并提升用户体验成为信息部门的首要职责。

商业银行信息系统的安全、稳定运行关系着国家金融安全和社会稳定,监管机构也十分重视商业银行的灾难备份体系建设,多次发布了商业银行信息系统灾难备份的相关标准和指引,对商业银行灾备系统建设提出了明确的要求。

为适应互联网业务的快速增长,保障银行各业务安全稳定的不间断运行,提高市场竞争力,同时符合监管机构的相关要求,建设灾备、双活甚至多活数据中心正在成为商业银行的共同选择。

二、发展趋势:

多数据中心的建设需要投入大量资金,其项目周期往往很长,涉及的范围也比较大。从技术上来说,要实现真正意义上的双活,就要求网络、应用、数据库和存储都要双活。就现阶段来看,大多数客户的多数据中心建设还达不到完全的双活要求,主流的建设目标是实现应用双活。当前客户建设多数据中心的模型能够归纳为以下几种:

1.单纯的数据容灾:

正常情况下只有主数据中心投入运行,备数据中心处于待命状态。发生灾难时,灾备数据中心能够短时间内恢复业务并投入运行,减轻灾难带来的损失。这种模式只能解决业务连续性的需求,但用户无法就近快速接入。灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。

2.构建业务连续性:

两个数据中心(同城/异地)的应用都处于活动状态,都有业务对外提供服务且互为备份。但出于技术成熟度、成本等因素考虑,数据库采用主备方式部署,数据库读写操作都在主中心进行,灾备中心进行数据同步。发生灾难时,数据中心间的数据库能够快速切换,避免业务中断。双活数据中心可充分盘活企业闲置资源,保证业务的连续性,帮助用户接入最优节点,提高用户访问体验。

3.提升业务服务能力:

多个数据中心同时对外提供服务且互为备份,各中心的数据库可同时处理应用的读写请求,网络、存储、应用和数据库全部实现多活。各数据中心独立运营,用户流量可被智能调度,形成灵活、弹性和可扩展的面向服务的业务架构。

三、业务目标:

用户建设多数据中心的思路和建设模型略有不同,但大多数用户的主要建设目标能够归纳为以下几点:

◆流量分发

用户访问流量可灵活、弹性的调度到多个数据中心,使各数据中心压力相对均衡,保证用户接入最近最快速的数据中心节点,提高用户访问体验。

◆故障切换

当出口链路或内部服务器出现异常时,运维人员可第一时间获悉故障情况,业务可根据需要自动或手动平滑切换至正常节点,保证用户访问的连续性。

◆业务安全

数据中心所处位置基础设施完善,水电通信供应稳定,数据中心内部有相应技术手段保证整个数据中心抵抗DDos攻击,各业务系统不被黑客非法入侵。

◆环境一致性

多个数据中心对用户来说理应是透明的,其对外服务时提供统一接口,各数据中心内部数据和服务能力需要完全一致,且随时处于可切换状态。

四、实现逻辑

我们把整个数据中心在逻辑上分为接入层和服务层,其处理逻辑的示意图如下:

◆接入层(智能DNS)

◆接入层(RHI路由注入)

◆服务层

故障切换

五、总体设计

总行数据中心整体上分为主中心和灾备中心,二者的网络架构、业务系统和服务能力都基本相同,同时对外提供服务,形成双活数据中心。数据中心内部划分为互联网业务区(提供外网服务,如手机银行、网上银行等)、核心生产业务区(传统生产业务,如ATM、柜面等)、数据库区(生产/查询)和业务测试区,出于成本考虑,灾备数据中心不设业务测试区。主备数据中心和各一级分行之间经过专线互联,利用动态路由协议组建企业内部专网。

数据中心的对外业务集中在互联网业务区,一般使用域名方式对外发布,客户端访问业务系统时,需要先由DNS将域名解析为IP地址,然后再访问该目标IP。对外业务的全局负载一般利用DNS解析实现,其可根据用户地理位置、用户所属运营商和网络质量、数据中心服务能力等因素作为判断依据,为不同用户返回不同的IP地址,实现流量的合理分配。对于数据中心的内网业务,一部分与外网业务相同,经过域名发布。另一部分与一级分行业务类似,直接经过IP地址访问。对于经过IP地址访问的业务,内网全局负载采用IP-Anycast(RHI路由注入)技术实现,其原理是在各数据中心以相同IP发布业务,由动态路由协议根据COST值等参数用户判断访问的最佳路径。

六、互联网业务全局负载(以网银为例)

1.设计模型

我们把网银业务从逻辑上分为接入侧和服务侧,接入侧包括出口链路、全局负载设备;服务侧包括WEB服务单元、APP服务单元和DB服务单元。WEB服务单元包含SSL卸载设备、WAF防火墙、负载均衡和服务器;APP服务单元包含防火墙、负载均衡和服务器;DB服务单元包含防火墙、负载均衡、数据库审计和数据库。WEB服务单元和APP服务单元在2个数据中心同时提供服务,实现应用双活。考虑到数据强一致性、技术成熟度和成本等因素,双数据中心间的DB服务单元建议主备部署,数据中心内部

的数据库集群可结合本地负载均衡实现多活。为达到最佳负载效果,需要各服务单元的负载设备能够访问其它数据中心对应服务单元的服务器,但优先调度本地服务器。

2.实现方式

(1)流量调度

数据中心层面:我们推荐使用两层逻辑算法的智能DNS调度策略,首先,全局负载设备会判断用户的地理位置,将用户调度到就近的数据中心,解决南北互访的问题;其次,根据用户所属运营商选择对应链路供用户接入,解决跨运营商访问慢的问题。另外,全局负载还可对客户端LDNS发起反向探测,判断用户网络质量,为用户选择最佳接入路径。

服务单元层面:WEB、APP和DB服务单元都配备了本地负载均衡器,用户访问流量到达数据中心内部后,由服务单元的负载设备根据预设策略分发给各服务器,可根据用户需求灵活选择轮询、优先级、最小连接等算法。

(2)业务连续性

数据中心层面:经过DC Cookie保证用户接入同一数据中心。用户首次访问时,本地WEB负载设备在响应数据包中插入DC Cookie,当客户端网络发生变化时,第二次访问就可能被调度到其它数据中心,这时其它数据中心的WEB负载设备会识别该

Cookie,将用户请求转发至第一次处理该用户访问的WEB负载设备,再由该负载设备进行调度。

服务单元层面:WEB服务单元的负载建议经过cookie会话保持(插入、改写和被动)保证业务连续性;APP服务单元的负载可经过cookie或源IP会话保持保证业务连续性(是否需要会话保持,选择何种会话保持方式需要结合应用具体情况);DB服务单元一般不需要会话保持。

(3)健康状态检查

服务单元层面:经过内置的应用级健康监视器对服务器进行主动探测,提供HTTP、HTTPS、RADIUS、FTP等常见模板。对于其它应用,提供接口供用户自定义检测内容和响应内容。另外,还

提供极具特色的被动健康检查功能,经过对TCP和HTTP协议的数据交互做采样分析,判断服务器的健康状态。

数据中心层面:全局负载与服务侧的各区域负载均衡联动,实时共享信息,判断服务侧整体服务能力;同时全局负载设备会探测出口各链路健康状态,结合服务侧整体服务能力和设备自身负荷情况,综合判断该数据中心的健康状态(正常、繁忙、故障)。

(4)故障切换

服务单元层面:服务单元内部某服务器繁忙或故障时,将用户请求调度到其它正常服务器。

数据中心层面:

a.某数据中心的WEB或APP服务器全部繁忙或全部故障时,用户接入链路不切换,经过专线将数据转发至正常数据中心对应服务单元。

b.主数据中心的数据库服务器全部故障时,用户接入链路不切换,经过专线将直接激活备数据中心的数据库,实现数据库一键切换。数据库切换前需要验证数据库的正确性,用户需要完成数据验证并保证数据库按顺序切换。

c.数据中心的所有链路同时故障时,全局负载设备将用户流量平滑牵引至正常数据中心。单链路故障时,可根据用户需求切换至本中心其它链路或其它中心同ISP链路。另外,当某数据中心出现服务能力不足时(链路繁忙、服务单元繁忙等),全局负载设备还能够基于数据中心的整体健康得分情况将用户分流至其它数据中心,保障用户正常访问。

(5)安全保障

数据中心层面:

a.网络出口处部署DDos防护设备并在运营商处购买流量清洗服务,保证数据中心整体安全。

b.网络出口处部署FW和IPS设备,从网络层和应用层保证数据中心不被恶意入侵。

c.全局负载设备提供DNS防火墙功能,充分保证DNS安全。

服务单元层面:各服务单元部署防火墙,保证区域安全。WEB 服务单元直接面向互联网用户,需要部署SSL卸载设备实现SSL 加解密,提高业务访问安全。同时,经过部署WAF保障WEB服务器的安全。

(6)业务优化加速

a.跨数据中心的数据库同步需占用大量带宽资源,且数据量非常大,部署WOC设备可大幅压缩传输数据,削减流量。WEB或APP服务单元跨数据中心通信时,经过WOC设备的协议优化和流缓存等技术实现加速。当二者同时需要大量带宽资源时,优先保证数据库同步。

b.互联网区的WEB服务单元直接面向公网,受公网网络质量影响较大,负载均衡可经过协议优化、数据压缩和智能加速等技术减少网络环境影响,提高用户访问体验。另外,外网用户会有

大量重复请求,经过负载设备的高速缓存技术,对静态和内容进行缓存,减少服务器数据交互,降低服务器性能压力,提高访问速度。

(7)其它

a.负载设备在服务单元内部经过旁路部署,为保证来回数据一致需要开启SNAT功能,一般情况下,WEB服务器都需要统计用户访问源IP,可经过负载设备在HTTP头部插入X-Forwarded-for 字段来透传用户真实源IP。

b.数据中心网络出口对各类设备性能要求较高,针对某些传统防火墙性能不足的情况,能够在防火墙前后各部署负载均衡设备,实现防火墙的负载。

c.考虑到极端情况,单数据中心需要能承载所有业务压力,建议选择2倍于实际性能需求的负载均衡设备。负载均衡设备自身拥有过载保护机制,当CPU、内存等指标达到阀值时,向用户发出告警信息,并重定向或丢弃后续新建连接。

七、内网业务全局负载(以一级分行为例)

1.设计模型

各分行数据中心与总行数据中心经过动态路由协议互联,形成大的企业内网环境。其大多数业务(ATM、POS、签章、柜面等)经过IP地址直接访问,利用RHI路由注入的方式对外发布。负载设备以M+N集群的方式分别部署在两个数据中心,不同的业务系统由不同的负载设备承载,解决了应用集中的风险问题,同时提供灵活的应用部署和无缝业务切换。

2.实现方式

(1)流量调度

以ATM业务为例,各分行数据中心对外发布的业务访问IP相同,经过RHI路由注入的方式与OSPF实现联动,以COST的大小来判断访问的最优路径。负载均衡设备以集群方式部署,单台设备与单个业务“静态绑定”,各设备间互为备份,宣告路由时基于具体业务系统进行宣告,可有效削减过多的路由条目,极大的简化运维工作。

如上图,数据中心对外发布4种业务,一般情况下,每台设备需要对外宣告4条路由,共16条路由,客户端最终访问的路径

由动态路由协议自身策略(根据COST值)决定。而采用M+N方式的高可用集群,配合基于具体应用的IP-Anycast技术,每台设备承载一种主要业务,其它业务在该设备作为备份状态,设备对外宣告路由时,只宣告主要业务相关的路由,共4条,路由条目削减了75%。

(2)业务连续性

内网业务比较特殊,客户端的位置和IP都相对固定。不考虑故障情况,正常网络环境下,路由器根据COST判断访问路径时结果也相对固定,不存在同一客户端多次访问同一业务被调度到不同负载的情况。负载设备可根据访问的源IP做会话保持,保证请求由同一服务器处理。

(3)健康状态检查

服务器:经过内置的应用级健康监视器对服务器进行主动探测,提供HTTP、HTTPS、RADIUS、FTP等常见模板。对于其它应用,提供接口供用户自定义检测内容和响应内容。另外,还提供极具特色的被动健康检查功能,经过对TCP和HTTP协议的数据交互做采样分析,判断服务器的健康状态。

链路:提供多种方式的链路健康检查,可指定探测地址和探测协议。

(4)故障切换

服务器:单台服务器故障时,负载设备将用户请求调度到其

它正常服务器;当数据中心内某业务对应的所有服务器故障时,负载设备会删除为该业务宣告的路由,由其它负载设备接替其工作。

链路:当链路发生故障时,远端路由器和负载设备都能够探测到故障状态,客户端访问业务系统时,路由器会选择正常链路转发数据。

负载设备:当设备自身发生故障时,集群内其余设备会自动协商出一台设备接替其工作。为保证风险可控,也能够提前设置接替顺序,使切换尽量在数据中心内部完成,减少未知风险。

双活数据中心建设方案

目录 第1章概述.................................................................................................................... 错误!未指定书签。 1.1数据集中阶段的数据中心建设 ......................................................................... 错误!未指定书签。 1.1.1 传统架构存在的问题.................................................................................. 错误!未指定书签。 1.1.2 H3C全融合虚拟化架构 .............................................................................. 错误!未指定书签。 1.2双活数据中心建设目标 ..................................................................................... 错误!未指定书签。第2章双活数据中心业务部署 .................................................................................... 错误!未指定书签。 2.1基于的业务部署模式 ......................................................................................... 错误!未指定书签。 2.1.1 模式简介 ..................................................................................................... 错误!未指定书签。 2.1.2 企业数据中心业务典型部署...................................................................... 错误!未指定书签。 2.2基于的业务部署模式 ......................................................................................... 错误!未指定书签。 2.2.1 技术简介 ..................................................................................................... 错误!未指定书签。 2.2.2 企业数据中心典型部署.............................................................................. 错误!未指定书签。 2.2.3 与 ................................................................................................................. 错误!未指定书签。第3章双活数据中心设计............................................................................................ 错误!未指定书签。 3.1网络结构 ............................................................................................................. 错误!未指定书签。 3.2双活数据中心部署 ............................................................................................. 错误!未指定书签。

双活数据中心方案

双活数据中心方案 一、需求背景: 随着数据的大集中,银行纷纷建设了负责本行各业务处理的生产数据中心机房(一般称为数据中心),数据中心因其负担了全行业务,所以其并发业务负荷能力和不间断运行能力是评价一个数据中心成熟与否的关键性指标。 近年来,随着网上银行、手机银行等各种互联网业务的迅猛发展,银行数据中心的业务压力业成倍增加,用户对于业务访问质量的要求也越来越高,保障业务系统的7*24小时连续运营并提升用户体验成为信息部门的首要职责。 商业银行信息系统的安全、稳定运行关系着国家金融安全和社会稳定,监管机构也十分重视商业银行的灾难备份体系建设,多次发布了商业银行信息系统灾难备份的相关标准和指引,对商业银行灾备系统建设提出了明确的要求。 为适应互联网业务的快速增长,保障银行各业务安全稳定的不间断运行,提高市场竞争力,同时符合监管机构的相关要求,建设灾备、双活甚至多活数据中心正在成为商业银行的共同选择。 二、发展趋势: 多数据中心的建设需要投入大量资金,其项目周期往往很长,涉及的范围也比较大。从技术上来说,要实现真正意义上的双活,就要求网络、应用、数据库和存储都要双活。就现阶段来看,大多数客户的多数据中心建设还达不到完全的双活要求,主流的建设目标是实现应用双活。目前客户建设多数据中心的模型可以归纳为以下几种: 1.单纯的数据容灾: 正常情况下只有主数据中心投入运行,备数据中心处于待命状态。发生灾难时,灾备数据中心可以短时间内恢复业务并投入运行,减轻灾难带来的损失。这种模式只能解决业务连续性的需求,但用户无法就近快速接入。灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。

华为存储双活数据中心规划设计指南

华为存储双活数据中心规划设计指南

目录 (3) 1.华为一体化双活数据中心方案概述 1.1.跨中心部署架构 (4) 1.2.同机房部署架构 (6) (9) 2.华为一体化双活数据中心方案设计 1.3.故障域设计 (10) 1.4.组网设计 (11) 1.4.1.管理网络 (11) 1.4.2.存储层主机访问网络 (12) 1.4.3.跨中心传输网络 (15) 1.4.4.双活复制网络 (16) 1.5.应用层设计 (16) 1.5.1.数据库集群 (17) 1.5.2.虚拟化集群 (19) 1.6.多路径规划 (20) 1.7.存储层设计 (21) 1.8.仲裁设计 (22)

1.华为一体化双活数据中心方案概述 双活数据中心是指两个数据中心共享存储、网络以及服务器资源,两个数据中心可以同时对外提供服务,整个系统具有业务负载均衡和自动故障切换能力,能够最大限度保证业务持续运行不中断,为业务提供最高级别的业务连续性。 当客户业务需要存储同时提供SAN和NAS双活能力时,而由于业务之间存在的关联性,两者不可以完全割裂,此时我们称为SAN&NAS一体化双活。例如:某业务由两个业务系统同时提供服务才可以提供服务,其中一个业务系统使用SAN存储,另一个业务系统使用NAS存储,此时,两者均正常运行才可以提供服务。如果仅仅提供SAN存储双活能力,当单套存储系统故障,NAS无法访问时,将导致业务中断。 存储双活作为整个系统的核心基础架构平台,主要解决以下两个核心问题。 1.两个数据中心间数据实时同步,确保单中心存储部件故障时,零数据丢失(RPO=0)和自动切换。为了达到这样的目标,NAS除了数据实时同步外,还要保证配置和锁的实时同步。系统运行过程中,文件系统权限、共享等配置变更支持实时镜像,故障发生时双活自动切换后能立即使用。 2.提供可同时被两个数据中心主机访问的存储共享资源,从而实现主机应用集群的跨站点部署,保证异常情况下,应用的自动切换(RTO≈0)。

双活数据中心建设方案模板

目录 第1章概述 (2) 1.1数据集中阶段的数据中心建设 (2) 1.1.1 传统架构存在的问题 (2) 1.1.2 H3C全融合虚拟化架构 (3) 1.2双活数据中心建设目标 (3) 第2章双活数据中心业务部署 (5) 2.1基于IP的业务部署模式 (5) 2.1.1 模式简介 (5) 2.1.2 企业数据中心IP业务典型部署 (5) 2.2基于DNS的业务部署模式 (7) 2.2.1 DNS技术简介 (7) 2.2.2 企业数据中心DNS典型部署 (8) 2.2.3 GSLB与SLB (10) 第3章XXXX双活数据中心设计 (13) 3.1XXXX网络结构 (13) 3.2XXXX双活数据中心部署 (13)

第1章概述 为进一步推进XXXX信息化建设,以信息化推动XXXX业务工作的改革与发展,XXXX在科技楼建有核心机房和一个小的本地容灾备份中心,现在在干保楼又新建了容灾网,实现同城双中心布局。 为提高业务可靠性与双中心设备资源的利用率,XXXX拟建同城双活数据中心,达到双中心同时对外提供同种业务的目标,同时实现业务切换无感知、计算资源灵活调度的功能目标。 1.1 数据集中阶段的数据中心建设 1.1.1传统架构存在的问题 传统数据中心网络采用传统以太网技术构建,随着各类业务应用对IT需求的深入发展,业务部门对资源的需求正以几何级数增长,传统的IT基础架构方式给管理员和未来业务的扩展带来巨大挑战。具体而言存在如下问题: 维护管理难:在传统构架的网络中进行业务扩容、迁移或增加新的服务功能越来越困难,每一次变更都将牵涉相互关联的、不同时期按不同初衷建设的多种 物理设施,涉及多个不同领域、不同服务方向,工作繁琐、维护困难,而且容 易出现漏洞和差错。比如数据中心新增加一个业务类型,需要调整新的应用访 问控制需求,此时管理员不仅要了解新业务的逻辑访问策略,还要精通物理的 防火墙实体的部署、连接、安装,要考虑是增加新的防火墙端口、还是需要添 置新的防火墙设备,要考虑如何以及何处接入,有没有相应的接口,如何跳线,以及随之而来的VLAN、路由等等,如果网络中还有诸如地址转换、7层交换

曙光DS800-G25双活数据中心解决方案介绍

曙光DS800-G25 双活数据中心解决案介绍 曙光信息产业股份有限公司

1解决案概述 在信息社会里,数据的重要性已经毋容置疑,作为数据载体的存储阵列,其可靠性更是备受关注。尤其在一些关键应用中,不仅需要单台存储阵列自身保持高可靠性,往往还需要二台存储阵列组成高可靠的系统。一旦其中一台存储阵列发生故障,另一台可以无缝接管业务。这种两台存储都处于运行状态,互为冗余,可相互接管的应用模式一般称之为双活存储。 由于技术上的限制,传统的双活存储案无法由存储阵列自身直接实现,更多的是通过在服务器上增加卷镜像软件,或者通过增加额外的存储虚拟化引擎实现。通过服务器上的卷镜像软件实现的双活存储,实施复杂,对应用业务影响大,而且软件购买成本较高。通过存储虚拟化引擎实现的双活存储,虽然实施难度有一定降低,但存储虚拟化引擎自身会成为性能、可靠性的瓶颈,而且存在兼容性的限制,初次购买和维护成本也不低。 曙光DS800-G25双活数据中心案采用创新技术,可以不需要引入任第三软硬件,直接通过两台DS800-G25存储阵列实现两台存储的双活工作,互为冗余。当其中一台存储发生故障时,可由另一台存储实时接管业务,实现RPO、RTO为0。这是一种简单、高效的新型双活存储技术。

2产品解决案 曙光DS800-G25双活数据中心案由两台存储阵列组成,分别对应存储引擎A、引擎B。存储引擎A 和B上的卷可配置为双活镜像对,中间通过万兆以太网链路进行高速数据同步,数据完全一致。由于采用虚拟卷技术,双活镜像对中的两个卷对外形成一个虚拟卷。对服务器而言,双活镜像对就是可以通过多条路径访问的同一个数据卷,服务器可以同时对双活镜像对中两个卷进行读写访问。组成双活镜像系统的两台存储互为冗余,当其中一台存储阵列发生故障时,可由另一台存储阵列直接接管业务。服务器访问双活存储系统可根据实际需要,选用FC、iSCSI式,服务器访问存储的SAN网络与数据同步的万兆网络相互独立,互不干扰。 组网说明: 1)服务器部署为双机或集群模式,保证服务器层的高可用, 2)存储与服务器之间的连接可以采用FC、iSCSI链路,建议部署交换机进行组网; 3)存储之间的镜像通道采用10GbE链路,每个控制器上配置10GbE IO接口卡,采用光纤交叉直连的式,共需要4根直连光纤; 4)组网拓扑

双活数据中心方案

[多链路/双活数据中心建设解决方案] [平台数据中心设计] 2016年9月 上海恒巍信息科技有限公司

目录 目录 ................................................................................................... 错误!未指定书签。1总述 ............................................................................................ 错误!未指定书签。 1.1平台双活数据中心建设需求 ................................... 错误!未指定书签。 1.1.1目前平台架构存在的问题 ................................... 错误!未指定书签。 1.1.2平台数据中心目标架构 ....................................... 错误!未指定书签。 2平台数据中心设计.................................................................... 错误!未指定书签。 2.1私有云设计概述 ....................................................... 错误!未指定书签。 2.1.1服务器虚拟化应用 ............................................... 错误!未指定书签。 2.1.2桌面虚拟化应用 ................................................... 错误!未指定书签。 2.1.3网络服务虚拟化应用 ........................................... 错误!未指定书签。 2.1.4计算资源需求 ....................................................... 错误!未指定书签。 2.2存储规划设计 ........................................................... 错误!未指定书签。 2.2.1数据的安全性和系统的高可靠性 ....................... 错误!未指定书签。 2.2.2系统的高性能 ....................................................... 错误!未指定书签。 2.2.3系统的可扩展性/可扩充性.................................. 错误!未指定书签。 2.2.4系统的多平台支撑能力 ....................................... 错误!未指定书签。 2.2.5灵活性和系统管理的简单性 ............................... 错误!未指定书签。 2.2.6存储的虚拟化 ....................................................... 错误!未指定书签。 2.2.7存储容量规划 ....................................................... 错误!未指定书签。 2.3跨数据中心网络设计 ............................................... 错误!未指定书签。 2.3.1流量调度 ............................................................... 错误!未指定书签。 2.3.2业务连续性 ........................................................... 错误!未指定书签。 2.3.3健康状态检查 ....................................................... 错误!未指定书签。 2.3.4故障切换 ............................................................... 错误!未指定书签。 2.3.5业务优化加速 ....................................................... 错误!未指定书签。 3应用服务控制与负载均衡设计................................................ 错误!未指定书签。 3.1功能介绍 ................................................................... 错误!未指定书签。 3.2应用优化与应用交付设计 ....................................... 错误!未指定书签。

双活数据中心解决方案

双活数据中心建设方案建议书

前言 信息是用户的命脉。在过去的十年中,信息存储基础架构的建设为用户带来了长足的进步。从内置存储到外部RAID存储,从共享外部RAID阵列的多台服务器,到通过SAN共享更大存储服务器的更多服务器。在存储服务器容量不断扩展的同时,其功能也在不断增强。从提供硬件级RAID保护到跨磁盘阵列的独立于服务器的数据镜像,存储服务器正逐渐偏离服务器外围设备的角色,成为独立的“存储层”,以为服务器提供统一的数据存储,保护和共享服务。在数据中心。 随着用户服务的不断发展,对IT系统尤其是存储系统的要求越来越高。考虑到用户服务的重要性,由于信息的重要性,需要多个中心来防止单个数据中心的操作风险。 多数据中心建设计划可以防止出现单个数据中心的风险,但是面对建设多个数据中心的巨额投资,如何同时使用多个数据中心已成为IT部门的首要问题。决定者。同时,必须使用多个数据中心在各个中心之间传输和共享生产数据。众所周知,服务器性能的瓶颈主要在IO部分。不同中心之间的数据传输和共享将导致IO延迟,这将影响数据中心整体表现。 同时,各种制造商继续引入新技术,新产品,不断扩大容量,不断提高性能以及越来越多的功能。但是,由于不同存储供应商的技术实现方式不同,因此用户需要使用不同的管理界面来使用不同的供应商。存储资源。这样,也给用户行业的用户带来很多问题。首先,不可能使用统一的接口来允许服务器使用不同制造商的存储服务器,并且不同制造商的存储服务器之间的数据迁移也将导致业务中断。 针对用户跨数据中心信息传输和共享的迫切需求,推出存储解决方案,很好的解决了这些问题。

第一章.方案概述 1.需求 计划建设两个数据中心,构成同城双生产系统,两中心之间距离不超过100公里;要求数据零丢失,系统切换时间小于5分钟; 2.方案简介 为了满足客户建设容灾系统的需求,我们设计了本地双活数据中心。整体架构如下: 上图是双活数据中心总体框架,包括双活存储系统、双活数据库系统、双活应用系统和双活网络系统。 我们将利用存储双活技术和主机集群技术实现数据库系统的双活,利用负载均衡设备实现应用系统在两个数据中心内的负载均衡,利用动态域名确保两个数据中心的网络双活。 双活数据中心可以实现业务系统同时在两个节点同时工作,达到负载均衡的目的。当生产节点出现故障时,业务系统还能够在第二生产节点上正常工作,实现业务零切换。

银行双活数据中心建设方案

银行双活数据中心建设方案

目录 1数据中心现状 (1) 2项目规划 (1) 数据中心改造方案 (1) 2.1业务互联网接入区域高可用设计 (1) 2.2业务互联网接入区域双活设计 (2) 2.3业务区高可用设计 (4) 2.4业务区综合前置区域基于IP的双活设计 (5) 2.5业务区OA区域基于IP的双活设计 (6) 2.6测试区域应用高可用设计 (8) 2.7项目利旧设备调换说明 (8) 3实施计划 (9) 3.1互联网接入区F5LC替换说明 (9) 3.2互联网接入区F5LC替换业务影响 (9) 3.3应用区F5LTM替换说明 (10) 3.4应用区F5LTM替换业务影响 (10)

1数据中心现状 目前有番禺生产机房和柯子岭灾备机房,两个数据中心采用裸纤DWDM互联。 数据中心按其所部署业务属性不同,划分为外网网银区、内网综合前置区、内网OA区以及负责办公用户上网的互联网接入区。 2项目规划 为提升数据中心IT资源利用效率,同时保障业务灾难时的平滑切换,计划将两中心建设为双活数据中心,并对原机房中部署的F5设备进行升级。 数据中心改造方案 2.1业务互联网接入区域高可用设计 ?网银区域高可用包括了接入互联网链路的高可用和Web/App应用的高可用。?在链路高可用上采用F5互联网融合解决方案,通过部署F5 BR-4000S,实现链路负载均衡、多数据中心负载均衡、DNS server、DDOS防护、数据中心防火墙等诸多L4-L7 Services,解决了传统架构中的“糖葫芦串”的复杂部署,简化了网络架构,降低了后期的运维管理成本。在番禺生产机房部署2台BR-4000s,通过Scale N+M集群保证网银出口的高可靠性; ?互联网出口处F5实现的DDOS防护功能有效保护了外网DNS系统的安全; ?将外网DNS迁移部署到F5设备上,为广州农商银行实现了高性能的智能DNS系统; ?在应用高可用方面,Web层使用LTM4000s,App层使用LTM2000s,实现对应用的负载均衡、SSL Offload、健康检查和会话保持等功能。 业务互联网接入区域改造后拓扑示意图如下所示:

双活数据中心解决方案

双活数据中心解决方案

目录 1 用户面临的挑战和需求 (3) 1.1面临的挑战 (3) 1.2迫切需求 (3) 2NetApp双活数据中心解决方案 (4) 3NetApp解决方案优势 (5)

1 用户用户面临的挑战面临的挑战面临的挑战和需求和需求 1.1 面临的挑战 ? 目前几乎所有金融行业用户的业务正常开展都离不开后端IT 环境的支持,一旦IT 环境由于各种原因不能正常提供支撑服务,就会对用户的业务造成巨大影响。因此金融用户对后端IT 系统的可靠性和可用性的要求越来越高,需要保证IT 系统7×24的运行能力。 ? 虽然目前大部分的专业存储系统均实现了硬件容灾保护,单个部件的失效不会导致其数据访问能力的失效。但是一旦某套存储系统由于一些严重故障或灾难性事故导致其整体性失效,则会导致前端应用系统的宕机从而影响业务系统的正常运行。因此金融用户需要在硬件冗余的基础上提供更高的可靠性保证。 ? 目前很多金融用户已经采取了多数据中心的架构,并且在多个数据中心之间进行了数据容灾保护架构的建设。但是由于传统的容灾架构基本上采用了Active-Standby 的方式,因此一方面限制了数据中心的角色和功能,另一方面也限制了用户在各个数据中心部署应用系统的灵活性。最重要的一点,传统的容灾架构在进行容灾恢复的时候过程复杂且冗长,缺乏足够的智能化。因此金融用户需要一种更加灵活更加智能化的多数据中心架构。 1.2 迫切需求 ? 后端存储系统在硬件冗余保护的基础上,需要提供更高级别的可靠性保证,能在存储系统发生整体性故障的时候还能保证数据访问的正常进行,从而防止这些严重故障或灾难性事故对业务系统造成严重影响。 ? 实现双活的数据中心架构替代原有的Active-Standby 架构,双活数据中心架构必须提供如下的功能: o 前端应用服务器可以从两个数据中心均能对同一份数据进行正常访问,同一个应用的服务器可以根据实际需要部署在两个中心当中的任何一个或同时部署在两个中心,部署在两个中心的应用服务器均可以处于服务提供状态

双活数据中心解决方案(最新)

构建永不宕机的信息系统 ——双活数据中心

双活数据中心解决方案目录 案例分享 12

存储层 应用层 双活数据中心端到端技术架构 数据中心A 数据中心B 双活存储层双活访问、数据零丢失 异构阵列 双活应用层 Oracle RAC 、VMware 、FusionSphere 跨DC 高可用、 负载均衡、迁移调度 双活网络层高可靠、优化的二层互联 最优的访问路径 ≤100km 裸光纤 Fusion Sphere Fusion Sphere 接入层 汇聚层核心层DC 出口网络层 GSLB SLB GSLB SLB

前端应用的双活(VMware ) vm vm vm vm vm vm vm vm vm vm vm vm AD vm vm vm vm SQL node1MSCS vCenter Server vm vm vm vm APP……. APP……. SQL node2MSCS vm vm vm vm vm vm vm vm vm 大二层互通网络,跨数据中心VM 配置双活应用,使用虚拟化网关提供的镜像卷作为共享存储 Weblogic 业务集群 管理集群 vm Weblogic ?vSphere Cluster HA ?vSphere Cluster DRS ?配置PDL 参数 ?Huawei OceanStor UltraPath for vSphere ? 配合负载均衡设备实现 Weblogic 访问自动漂移和均衡 VMware 配置要点 业务访问效果 ?业务访问负载均衡 ?虚拟机分布按业务压力自动均衡 ?故障自动切换访问?Weblogic 可动态扩展 ? 单数据中心故障恢复后,虚拟机自动回切

两地三中心分布式双活数据中心技术发展趋势

两地三中心分布式双活数据中心技术发展趋势 2016-06-20 作者:赵培(中兴通讯) 业务连续性保障一直是IT运维的热点话题,随着近几年政企IT系统集中化的建设发展思路的确定,在数据中心层面的业务连续性保障成为了重中之重。上到国家、行业主管单位,下到企业,都在数据中心层面制定了相关的数据中心业务连续性建设标准、行业指导意见、企业规范等。2007年,国家发布了国标GB20988-2007(信息系统灾难恢复规范);2009年6月,银监会发布《商业银行信息科技风险管理指引》,要求商业银行按照两地三中心的模式建设数据中心。最近两年,随着云计算技术的发展和逐步应用,政府在智慧城市和电子政务云的建设方面也采用了集约化集中建设的思路,为保证集中化建设的数据中心可以为政务应用提供高业务连续性,双活数据中心也基本成为智慧城市和电子政务云解决方案的基本要求。 虽然两地三中心模式的概念频频被提及,但目前仅仅在金融行业中的大体量商业银行和股份银行做得好一些,基本建设了两地三中心的模式。中型金融机构(如城商行、农信行)正在按照监管单位要求,逐步建设自己的灾备体系。据统计在国内的160家城市商业银行中,70%以上的银行没有灾备中心,这些银行目前仅有一些简单的数据备份措施,整个系统存在较大风险。而建设灾备中心对于这些体量较小的金融机构也存在投资规模大、选址要求高、运行成本的问题。 最近两年,在金融监管部门的要求下,部分规模较大的金融机构采用了双活数据中心的建设方案,但由于故障导致的宕机仍然时有发生,如支付宝由于一根光纤被挖断,从而导致了大规模的网络故障和服务长时间阻断。 业界现有的各类双活两地三中心解决方案并不完美,根本无法达到国家关于RTO(故障恢复时间)小于数分钟,RPO(故障恢复点)等于0的要求。通过对淘宝光纤故障、携程程序员误删数据、西部某地方银行37小时服务中断等事故的分析,我们分析发现现有的两地三中心双活数据中心方案存在以下一些问题:

应用级双活建设方案

1.逻辑架构 2.方案简述 某客户为了保证业务的连续性,需要部署双活数据中心,传统的数据中心解

决方案,正常情况下只有主数据中心投入运行,备数据中心处于待命状态。发生灾难时,灾备数据中心可以短时间内恢复业务并投入运行,减轻灾难带来的损失。这种模式只能解决业务连续性的需求,但用户无法就近快速接入。灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。 两个数据中心(同城/异地)的应用都处于活动状态,都有业务对外提供服务且互为备份。但出于技术成熟度、成本等因素考虑,数据库采用主备方式部署,数据库读写操作都在主中心进行,灾备中心进行数据同步。发生灾难时,数据中心间的数据库可以快速切换,避免业务中断。双活数据中心可充分盘活闲置资源,保证业务的连续性,帮助用户接入最优节点,提高用户访问体验。 3.实施方案详述 真正的双活,要在数据中心的从上到下各个层面,都要实现双活。网络、应用、数据库、存储,各层面都要有双活的设计,这样才能真正意义上实现数据中心层面的双活。 从某种程度上说,双活数据中心可以看做是一个云数据中心,因为它具有云计算所需的高可靠性、灵活性、高可用性和极高的业务连续性水平。不仅能够满足应用对性能、可用性的需求,而且还可以灵活动态扩展。 3.1网络子系统 3.1.1简述 从网络上来看,双活数据中心需要将同一个网络扩展到多个数据中心,在数据中心间需要大二层网络连接并且实现服务器和应用的虚拟化数据中心互联技术。 大二层的网络技术有IRF、TRILL、SPB、EVI等。IRF是将多台网络设备(成员设备)虚拟化为一台网络设备(虚拟设备),并将这些设备作为单一设备管理和使用。

医院双活数据中心建设方案_V3

医院双活数据中心 建设方案 2013年7月

1.需求和目标 数字化医院是我国现代医疗发展的趋势。“数字化医院”是指将先进的网络及数字技术应用于医院及相关医疗工作, 实现医院内部医疗和管理信息的数字化采集、存储、传输及后处理,以及各项业务流程数字化运作的医院信息体系。“数字化医院”是由数字化医疗设备、计算机网络平台和医院业务软件所组成的三位一体的综合信息系统。数字化医院工程体现了现代信息技术在医疗卫生领域的充分应用,有助于医院实现资源整合、流程优化,降低运行成本,提高服务质量、工作效率和管理水平。 信息系统建设作为医疗行业信息化的核心内容,在近几年的发展中经历了不同的阶段。随着国家新医改方案的实施,对国内传统医院信息系统发展带来前所未有的机遇与挑战,现有的信息系统已难以全面适应医院的需求。因此,一个全新的数字化医院解决方案是当前国内医院信息化行业的迫切需求。 1.1项目需求分析 医疗行业信息系统中最重要的是信息,包括病人临床信息和医院管理信息等。医疗行业IT部门面临的最明显挑战是由信息数字化造成的信息量持续增长带来的,这些增长来源于: ●每个医疗过程涉及大量图像加上每年要执行大量扫描,使得存储的医疗 记录以超过 70% 的年增长率在增长; ●更多类型的数据:财务、临床、图像管理,结构化数据(如数据库)及 非结构化数据(如数字影像、报告、视频、演示文稿等); ●更多用途的数据:HIS、EMR/EHR、PACS、知识管理以及数据挖掘 ●更多设备产生的数据:药征、患者监视、仪器 ●更多管理法规:国家医疗记录保留要求 医疗行业中不同业务应用系统的需求不尽相同。我们以医院的两个最有代表性的应用为例,分析其来自医院业务的需求: ●HIS/EMR系统 –随着就诊人数的增长,需要保证系统的性能满足业务发展的需要;

浪潮双活存储解决方案

浪潮数据中心存储双活解决方案【需求分析】 大数据时代,数据已经成为各行业至关重要的核心资产。传统的灾备方案中存在着资源利用率低、可用性差、出现故障时停机时间长、数据恢复慢、风险高等问题。数据是否安全、业务是否连续运行无中断成为用户衡量一个灾备方案的关键。 传统数据中心存储灾备一般采用主备模式,只有当生产数据中心存储故障后,灾备中心存储才会接管数据访问业务,并且此过程需要手动执行,将灾备中心对应的业务Lun手动激活读写服务;此外,主备数据中心的模式,在正常业务运转情况下,只有主中心发挥作用,备中心的资源一直处于“待命”模式,无法最大程度发挥所有资源的效率。 双活数据中心将是未来数据中心发展的趋势,而存储双活又是数据中心双活的重要基础。 【浪潮存储双活方案设计】 浪潮AS8000-M3使用虚拟卷镜像与节点分离两个核心功能实现数据存储的双活构建: AS8000-M3虚拟卷镜像功能实现: 浪潮AS8000-M3作为异构存储整合的专业设备,可以实现在两台存储设备之间实现逻辑卷的镜像。保障单个磁盘的故障或单台存储的故障都不造成对前端服务器性能的影响,实现业务连续性。 上图是通过AS8000-M3实现两台阵列之间存储镜像的示意图,对于底层的磁盘阵列来说,其使用方式与现在相同,对其内部的磁盘先进行RAID,然后在RAID 组上进行逻辑磁盘(LUN)的划分。如上图的例子中,首先对两个阵列的磁盘做RAID5,然后在左边阵列中再作成LUNa和LUNb两个逻辑磁盘,同样在右边阵列中可以作成LUN1和LUN2两个逻辑磁盘。AS8000-M3将从左边磁盘阵列获得的管理磁盘a和从右边阵列获得的管理磁盘1进行镜像后,形成了虚拟卷为虚拟卷1,然后再将虚拟卷1映射给服务器。服务器就像使用本地磁盘一样的使用虚拟卷1。 使用AS8000-M3进行跨阵列镜像后,对于服务器获得的虚拟卷来说,不会因为任何一个后端磁盘存储系统的故障而出现问题。 ?AS8000-M3节点分离功能实现: 浪潮AS8000-M3拥有节点分离功能,可以把AS8000-M3一个节点组中的两个控制器节点分开放置,两个节点间最远距离可以达到100KM,AS8000-M3节点分离功能只是物理节点的分开放置,但是在用户对于数据的访问以及在AS8000-M3对于后挂存储空间的管理上与一个节点组处理方式相同,如果一个AS8000-M3

EMC双活数据中心解决方案 V4.0资料

EMC数据中心容灾系统 建设方案建议书 EMC电脑系统(中国)有限公司 Version 1.0,2014/10

前言 信息是用户的命脉, 近十年来信息存储基础设施的建设在用户取得长足的进步。从内置存储转向外置RAID存储,从多台服务器共享一台外置RAID阵列,再到更多台服务器通过SAN共享更大型存储服务器。存储服务器容量不断扩大的同时,其功能也不断增强,从提供硬件级RAID保护到独立于服务器的跨磁盘阵列的数据镜像,存储服务器逐渐从服务器外设的角色脱离出来,成为单独的“存储层”,为数据中心的服务器提供统一的数据存储,保护和共享服务。 随着用户业务的不断发展,对IT系统尤其是存储系统的要求越来越高,鉴于用户业务由于信息的重要性,要求各地各用户多中心来预防单一数据中心操作性风险。 多数据中心建设方案可以预防单数据中心的风险,但面对多数据中心建设的巨额投资,如何同时利用多数据中心就成为IT决策者的首要问题。同时利用多数据中心就必需实现生产数据跨中心的传输和共享,总所周知,服务器性能的瓶颈主要在IO部分,数据在不同中心之间的传输和共享会造成IO延时,进而影响数据中心的总体性能。 同时,各家厂商不断推出新技术,新产品,容量不断扩展,性能不断提高,功能越来越丰富,但由于不同存储厂商的技术实现不尽相同,用户需要采用不同的管理界面来使用不同厂商的存储资源。这样,也给用户业用户带来不小的问题,首先是无法采用统一的界面来让服务器使用不同厂商的存储服务器,数据在不同厂商存储服务器之间的迁移也会造成业务中断。 作为信息存储行业的领先公司,EMC公司针对用户跨数据中心信息传输和共享的迫切需求,推出存储VPlex解决方案,很好的解决了这些问题。本文随后将介绍VPlex产品及其主要应用场景,供用户信息存储管理人士参考。

双活数据中心方案

双活数据中心方案

双活数据中心方案 一、需求背景: 随着数据的大集中,银行纷纷建设了负责本行各业务处理的生产数据中心机房(一般称为数据中心),数据中心因其负担了全行业务,因此其并发业务负荷能力和不间断运行能力是评价一个数据中心成熟与否的关键性指标。 近年来,随着网上银行、手机银行等各种互联网业务的迅猛发展,银行数据中心的业务压力业成倍增加,用户对于业务访问质量的要求也越来越高,保障业务系统的7*24小时连续运营并提升用户体验成为信息部门的首要职责。 商业银行信息系统的安全、稳定运行关系着国家金融安全和社会稳定,监管机构也十分重视商业银行的灾难备份体系建设,多次发布了商业银行信息系统灾难备份的相关标准和指引,对商业银行灾备系统建设提出了明确的要求。 为适应互联网业务的快速增长,保障银行各业务安全稳定的不间断运行,提高市场竞争力,同时符合监管机构的相关要求,建设灾备、双活甚至多活数据中心正在成为商业银行的共同选择。 二、发展趋势:

多数据中心的建设需要投入大量资金,其项目周期往往很长,涉及的范围也比较大。从技术上来说,要实现真正意义上的双活,就要求网络、应用、数据库和存储都要双活。就现阶段来看,大多数客户的多数据中心建设还达不到完全的双活要求,主流的建设目标是实现应用双活。当前客户建设多数据中心的模型能够归纳为以下几种: 1.单纯的数据容灾: 正常情况下只有主数据中心投入运行,备数据中心处于待命状态。发生灾难时,灾备数据中心能够短时间内恢复业务并投入运行,减轻灾难带来的损失。这种模式只能解决业务连续性的需求,但用户无法就近快速接入。灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。

双活数据中心解决方案

双活数据中心解决方案 V100R002C10 方案描述 文档版本 01 发布日期 2015-01-30 华为技术有限公司

版权所有? 华为技术有限公司2015。保留一切权利。 非经本公司书面许可,任何单位和个人不得擅自摘抄、复制本文档内容的部分或全部,并不得以任何形式传播。 商标声明 和其他华为商标均为华为技术有限公司的商标。 本文档提及的其他所有商标或注册商标,由各自的所有人拥有。 注意 您购买的产品、服务或特性等应受华为公司商业合同和条款的约束,本文档中描述的全部或部分产品、服务或特性可能不在您的购买或使用范围之内。除非合同另有约定,华为公司对本文档内容不做任何明示或默示的声明或保证。 由于产品版本升级或其他原因,本文档内容会不定期进行更新。除非另有约定,本文档仅作为使用指导,本文档中的所有陈述、信息和建议不构成任何明示或暗示的担保。 华为技术有限公司 地址:深圳市龙岗区坂田华为总部办公楼邮编:518129 网址:https://www.360docs.net/doc/b510519863.html,

方案描述目录 目录 1 前言 (1) 2 方案描述 (3) 2.1 方案定位 (3) 2.2 方案组网 (4) 2.3 方案特点 (5) 2.4 产品介绍 (5) 2.4.1 存储阵列OceanStor 18000系列 (6) 2.4.2 存储阵列OceanStor V3系列 (6) 2.4.3 存储阵列OceanStor T系列 (7) 2.4.4 虚拟化存储网关OceanStor VIS6600T (7) 2.4.5 FC交换机OceanStor SNS系列 (8) 2.4.6 多路径软件OceanStor UltraPath (9) 2.4.7 容灾管理软件OceanStor ReplicationDirector (9) 2.4.8 负载均衡器L2800 (9) 3 术语表 (11)

双活数据中心建设方案

双活数据中心建设方案

一、需求背景: 随着数据的大集中,银行纷纷建设了负责本行各业务处理的生产数据中心机房(一般称为数据中心),数据中心因其负担了全行业务,所以其并发业务负荷能力和不间断运行能力是评价一个数据中心成熟与否的关键性指标。 近年来,随着网上银行、手机银行等各种互联网业务的迅猛发展,银行数据中心的业务压力业成倍增加,用户对于业务访问质量的要求也越来越高,保障业务系统的7*24小时连续运营并提升用户体验成为信息部门的首要职责。 商业银行信息系统的安全、稳定运行关系着国家金融安全和社会稳定,监管机构也十分重视商业银行的灾难备份体系建设,多次发布了商业银行信息系统灾难备份的相关标准和指引,对商业银行灾备系统建设提出了明确的要求。 为适应互联网业务的快速增长,保障银行各业务安全稳定的不间断运行,提高市场竞争力,同时符合监管机构的相关要求,建设灾备、双活甚至多活数据中心正在成为商业银行的共同选择。 二、发展趋势: 多数据中心的建设需要投入大量资金,其项目周期往往很长,涉及的范围也比较大。从技术上来说,要实现真正意义上的双活,就要求网络、应用、数据库和存储都要双活。就现阶段来看,大多数客户的多数据中心建设还达不到完全的双活要求,主流的建设目标是实现应用双活。目前客户建设多数据中心的模型可以归纳为以下几种: 1.单纯的数据容灾: 正常情况下只有主数据中心投入运行,备数据中心处于待命状态。发生灾难时,灾备数据中心可以短时间内恢复业务并投入运行,减轻灾难带来的损失。这种模式只能解决业务连续性的需求,但用户无法就近快速接入。灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。

2020年双活数据中心方案

作者:败转头 作品编号44122544:GL568877444633106633215458 时间:2020.12.13 双活数据中心方案 一、需求背景: 随着数据的大集中,银行纷纷建设了负责本行各业务处理的生产数据中心机房(一般称为数据中心),数据中心因其负担了全行业务,所以其并发业务负荷能力和不间断运行能力是评价一个数据中心成熟与否的关键性指标。 近年来,随着网上银行、手机银行等各种互联网业务的迅猛发展,银行数据中心的业务压力业成倍增加,用户对于业务访问质量的要求也越来越高,保障业务系统的7*24小时连续运营并提升用户体验成为信息部门的首要职责。 商业银行信息系统的安全、稳定运行关系着国家金融安全和社会稳定,监管机构也十分重视商业银行的灾难备份体系建设,多次发布了商业银行信息系统灾难备份的相关标准和指引,对商业银行灾备系统建设提出了明确的要求。 为适应互联网业务的快速增长,保障银行各业务安全稳定的不间断运行,提高市场竞争力,同时符合监管机构的相关要求,建设灾备、双活甚至多活数据中心正在成为商业银行的共同选择。 二、发展趋势: 多数据中心的建设需要投入大量资金,其项目周期往往很长,涉及的范围也比较大。从技术上来说,要实现真正意义上的双活,就要求网络、应用、数据库和存储都要双活。就现阶段来看,大多数客户的多数据中心建设还达不到完全的双活要求,主流的建设目标是实现应用双活。目前客户建设多数据中心的模型可以归纳为以下几种: 1.单纯的数据容灾: 正常情况下只有主数据中心投入运行,备数据中心处于待命状态。发生灾难

时,灾备数据中心可以短时间内恢复业务并投入运行,减轻灾难带来的损失。这种模式只能解决业务连续性的需求,但用户无法就近快速接入。灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。 2.构建业务连续性: 两个数据中心(同城/异地)的应用都处于活动状态,都有业务对外提供服务且互为备份。但出于技术成熟度、成本等因素考虑,数据库采用主备方式部署,数据库读写操作都在主中心进行,灾备中心进行数据同步。发生灾难时,数据中心间的数据库可以快速切换,避免业务中断。双活数据中心可充分盘活企业闲置资源,保证业务的连续性,帮助用户接入最优节点,提高用户访问体验。

相关文档
最新文档