双活数据中心建设模板资料

合集下载

双活数据中心技术架构

双活数据中心技术架构

双活数据中心技术架构双活数据中心技术架构文档1.引言2.双活数据中心概述2.1 定义双活数据中心是指在两个地理位置上部署的具备相同功能的数据中心,在同时运营的情况下能够实现高可用性、容灾和负载均衡的架构。

2.2 目的搭建双活数据中心的目的是为了确保系统在遇到故障或灾难时能够保持持续运行,提高系统的可用性和灵活性。

此外,双活数据中心还可以实现数据的备份和恢复、负载均衡以及地理分布式服务。

3.双活数据中心技术架构3.1 基础设施3.1.1 网络在双活数据中心架构中,网络是连接两个数据中心的关键要素。

可以采用专线、虚拟专线或互联网连接两个数据中心,确保数据的实时同步与传输。

3.1.2 服务器双活数据中心需要部署一定数量的服务器来支持业务需求。

服务器可以采用物理服务器或者虚拟化技术,以提高资源利用率和弹性。

3.1.3 存储为了保证数据的可靠性和高可用性,在双活数据中心架构中,存储系统是必不可少的。

可以采用分布式存储系统或者光纤通道等技术,实现数据的备份和同步。

3.2 数据同步和备份3.2.1 数据同步双活数据中心需要保证数据的实时同步,以保证两个数据中心的数据一致性。

可以采用数据库复制、日志复制或者异步数据同步等技术,确保数据的及时性和可靠性。

3.2.2 数据备份为了应对数据中心的灾难,双活数据中心需要定期进行数据的备份。

可以采用全量备份、增量备份或者差异备份等技术,以确保数据的完整性和恢复性。

3.3 故障切换和负载均衡3.3.1 故障切换当一个数据中心发生故障时,双活数据中心需要自动触发故障切换,将业务流量切换至另一个正常运行的数据中心。

可以采用双机热备、冷备或者主备切换等技术,实现高可用性和容灾能力。

3.3.2 负载均衡为了实现系统的高性能和可扩展性,双活数据中心需要采用负载均衡技术,将业务请求均匀地分发到各个数据中心的服务器上。

可以采用硬件负载均衡器、软件负载均衡器或者DNS负载均衡等技术,实现业务的高可用性和高性能。

(完整word)应用级双活建设方案

(完整word)应用级双活建设方案

1.逻辑架构2.方案简述某客户为了保证业务的连续性,需要部署双活数据中心,传统的数据中心解决方案,正常情况下只有主数据中心投入运行,备数据中心处于待命状态。

发生灾难时,灾备数据中心可以短时间内恢复业务并投入运行,减轻灾难带来的损失。

这种模式只能解决业务连续性的需求,但用户无法就近快速接入。

灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。

两个数据中心(同城/异地)的应用都处于活动状态,都有业务对外提供服务且互为备份.但出于技术成熟度、成本等因素考虑,数据库采用主备方式部署,数据库读写操作都在主中心进行,灾备中心进行数据同步.发生灾难时,数据中心间的数据库可以快速切换,避免业务中断.双活数据中心可充分盘活闲置资源,保证业务的连续性,帮助用户接入最优节点,提高用户访问体验。

3.实施方案详述真正的双活,要在数据中心的从上到下各个层面,都要实现双活.网络、应用、数据库、存储,各层面都要有双活的设计,这样才能真正意义上实现数据中心层面的双活。

从某种程度上说,双活数据中心可以看做是一个云数据中心,因为它具有云计算所需的高可靠性、灵活性、高可用性和极高的业务连续性水平。

不仅能够满足应用对性能、可用性的需求,而且还可以灵活动态扩展.3.1网络子系统3.1.1简述从网络上来看,双活数据中心需要将同一个网络扩展到多个数据中心,在数据中心间需要大二层网络连接并且实现服务器和应用的虚拟化数据中心互联技术。

大二层的网络技术有IRF、TRILL、SPB、EVI等.IRF是将多台网络设备(成员设备)虚拟化为一台网络设备(虚拟设备),并将这些设备作为单一设备管理和使用。

IRF把多台设备合并,简化了管理提高了性能,但IRF构建二层网络时,汇聚交换机最多是可达4台,在二层无阻塞的前提下可接入13824台双网卡的千兆服务器,如果客户期望其服务器资源池可以有效扩充到2万台甚至更大,就需要其他技术提供更大的网络容量。

某三级甲等医院数据中心双活建设方案

某三级甲等医院数据中心双活建设方案

04
还部署了具有重删压缩功能 的备份一体机,降低网络备 份流量,提升备份效率,并 满足电子病历应用水平分级 评价五级对容灾备份的要求 。
简化双活架构,降低采购和运维成本
简化组网和管理,减轻后台运维压力,两个数据中心 的全闪存储互为镜像,数据可以在两台存储之间实时 同步,并能在单台设备故障切换时实现业务无感知。
在电子病历时代,为满足个体 终生健康保障需求,支持大数 据时代的医学研究,医疗数据 的保存期限需要更久而且要保 证数据不能丢失。
容灾备份要求
《全国医院信息化建设标准与规范(试行)》规 定,三级甲等医院容灾备份应满足:关键业务信 息系统复原时间目标(RTO)≤15分钟,复原点 目标(RPO)≤10分钟。
应用效果
04
全闪存储加速,保证核心业务性能要求
原有存储设备IOPS仅有6.8 万,而华为OceanStor Dorado全闪存储(配置15 块3.84TB NVMe固态盘) 实测IOPS达到23万,系统响 应速度提升3倍以上。
医院电子病历系统迁移至新 双活架构后,系统响应速度 明显提升,就诊高峰期业务 从未出现卡顿情况,连调阅 数据量最大的应用也能在3 秒内完成。
每个数据中心的存储可同时提供 读写服务,实现无缝切换和业务 访问不中断。
为了提升存储空间利用率,启用 数据重删压缩功能,减少数据占 用的空间,提高每TB可用空间性 价比。
网络链路层面
在网络链路层面,医院前期 在基于VPLEX的双活数据中 心建设时已利用OSPF路由协
议实现负载均衡。
1
基于HSRP热备份路由协议 实现链路聚合,数据中心之 间已实现大二层打通,为业
THANKS.
因此,必须建立数据连续保护和容灾备 份方案来保障医疗数据的安全性。

双活数据中心规划设计

双活数据中心规划设计

五、存储层设计
1. 基于EMC VPLEX METRO的存储架构设计
相同的信息 不同的位置 随处访问 动态移动性 自动故障切换 零 RPO + 零 RTO
SAN网络
SAN网络
VPLEX
数据中心1
EMC 和非 EMC 阵列
VPLEX
WITNESS
Federated AccessAnywhere
生产中心1
DWDM LB-A 服务器区
远端分支机构 运营商
生产中心2
DWDM LB-B
服务器区
一、方案概述 二、网络层设计 三、应用层设计 四、数据库设计 五、存储层设计
三、应用工作站
负载均衡器1
Cluster 局域网
负载均衡器2
三、应用服务器设计
2. 负载均衡实现示意图
客户端工作站
192.168.0.3---http:/www…….
1
2
4
局域网
3
ERP,公文、专 卖、营销……
DNS服务器 身份认证服务器
负载均衡器
192.168.0.3 (VIP)
应用服务器1 192.168.0.1
应用服务器2 192.168.0.2
一、方案概述 二、网络层设计 三、应用层设计 四、数据库设计 五、存储层设计
远端若干分支机构 运营商
生产中心2
DWDM
服务器区
二、网络设计
2. 网络协议示意图
本地办公大楼
生产中心1
生路成由树协协议议图图
运营商
远端若干分支机构
OSPF AreaX 生产中心2
DWDM OSPRFstAprea0 DWDM
LB-A

双活数据中心方案

双活数据中心方案

双活数据中心方案本文档旨在详细介绍双活数据中心方案。

双活数据中心是指在一个组织内部建立两个或更多的数据中心,使得在任何情况下均能保持高可用性和冗余性。

1\引言1\1 背景1\2 目的1\3 范围2\双活数据中心架构2\1 数据中心结构概述2\2 网络架构2\3 存储架构2\4 计算架构2\5 负载均衡和容错机制3\双活数据中心部署规划3\1 数据中心位置选择3\2 网络连接规划3\3 存储规划3\4 计算资源规划3\5 安全规划4\数据同步与复制4\1 数据同步原理4\2 数据同步技术选型4\3 数据复制策略4\4 数据完整性和一致性保证5\高可用性与故障转移5\1 故障转移策略5\2 自动化故障转移5\3 监控与预警5\4 容灾测试和演练6\数据中心升级与维护6\1 升级策略和计划6\2 维护策略和计划6\3 软硬件升级流程6\4 灾难恢复过程7\附件●附件1: 双活数据中心网络拓扑图●附件2: 存储架构示意图注释:1\双活:指两个或更多数据中心在活动状态下同时运行,发生故障时能够实现无缝切换。

2\可用性:指系统或服务在规定时间内处于可用状态的能力。

3\冗余性:指系统或服务拥有多余的资源,以保证在故障发生时能够继续提供服务。

4\容错机制:指系统或服务所具备的自动恢复能力,以确保任何故障不会导致系统崩溃或服务中断。

本文档所涉及的法律名词及注释:1\双活数据中心方案:在法律上指一个组织内部建立两个或更多的数据中心,以确保数据和服务的高可用性和冗余性。

2\高可用性:在法律上指系统或服务在规定时间内能够持续提供可用性的能力。

3\故障转移:在法律上指系统或服务在发生故障时自动切换到备用设备,以保证服务的连续性。

4\监控与预警:在法律上指对数据中心和相关设备进行实时监控,并在发生异常情况时提供预警通知。

5\容灾测试和演练:在法律上指定期定时对数据中心的灾难恢复过程进行测试和演练,以验证其可用性和可行性。

本文档涉及附件:1\附件1: 双活数据中心网络拓扑图2\附件2: 存储架构示意图。

智慧银行云双活数据中心整体建设方案

智慧银行云双活数据中心整体建设方案
监控指标选择
根据数据中心业务特点和运维需求,制定合适的监控指标,包括基 础设施、应用系统、网络安全等方面的指标。
数据采集与存储
采用高效的数据采集技术和存储方案,确保监控数据的准确性和实 时性。
故障诊断与排除流程优化
故障诊断方法
结合监控数据和故障现象 ,采用多种故障诊断方法 ,快速定位故障原因。
故障排除流程
智慧银行云双活数据中心整 体建设方案
汇报人:xxx
汇报时间:2024-03-06
目录
• 项目背景与目标 • 总体架构设计 • 基础设施搭建与资源整合 • 业务连续性保障措施 • 安全管理策略实施 • 运维管理体系建设 • 总结回顾与未来展望
01
项目背景与目标
智慧银行发展趋势
01
数字化转型
智慧银行正通过数字化转型提 升服务质量和效率,以满足客
管理。
虚拟化技术应用
采用成熟的虚拟化技术,如 VMware、KVM等,实现服务器 虚拟化、桌面虚拟化等应用场景, 提高资源利用率和管理效率。
高性能计算支持
针对高性能计算需求,提供GPU虚 拟化、FPGA虚拟化等技术支持,满 足科学计算、图形处理等高性能应 用场景。
存储资源池化及虚拟化技术应用
存储资源池化
运维流程优化
根据实际运维经验和反馈,不断优化运维流程和管理制度,提升 运维管理水平。
07
总结回顾与未来展望
项目成果总结回顾
成功构建智慧银行云双活数据中心
完成了双活数据中心的基础架构建设,实现了业务系统的双活部署,大幅提升了银行业务 的连续性和灾备能力。
优化资源配置,提高资源利用率
通过云计算技术,实现了计算、存储、网络等资源的池化管理和动态调配,提高了资源的 利用率和管理效率。

【范例】xxxx双活容灾数据中心方案汇报


储平台
非核心业务实现异地容灾
vmware平台的纳管与一键执行
数据库双活
oracle extended RAC
跨数据中心RAC,无需存储双活支持
RAC为写入同步,因此对网络 要求高
内网区数据库物理 机+存储平台 数据库容灾备份
dataguard、always on等,或者数据库 同步日志记录,网络消耗较少,需要一定
核心业务实现双中心双活 负载均衡)
2、方案二:应用双活
深信服超融合平台支持同vmware平台无代
异地备份、异地容灾
理模式的双向迁移与备份容灾,支持
核心业务实现异地容灾
vmware平台的纳管与一键执行
深信服超融合平台支持同vmware平台无代
内网区vmware+存
异地备份、异地容灾
理模式的双向迁移与备份容灾,支持
数据中心A
存储池
aCloud
7. 双活: 将active-active的应用虚拟机节点分 布在两个故障域中,当任何一个故障 域出现故障时,另外一个故障域的应 用虚拟机节点也能持续地运行,这个 过程业务不会中断。
VM
VM
VM
VM
VM
4. 延伸的网络: 数据中心两地,运行在aCloud 上的虚拟机,在统一的、所画 即所得的虚拟网络页面中进行 网络编排。
VMware
同步数据到备站点 回迁到主站点
aCloud
提供可视化的容灾监控中心大屏页面,可以直观 地看到当前容灾的配置关系、容灾的运行状态, 可及时对可能出现影响RPO异常的告警进行处理
简单易用,无学习成本,帮助用户完成稳定可靠 的IT创新
数据中心A
3. 回迁到主站点: 从备站点拉起的虚拟机, 可以在主站点恢复正常 后,回迁到主站点继续 运行,回迁时需要回迁 全量数据。

银行双活数据中心建设方案

银行双活数据中心建设方案目录1数据中心现状 (1)2项目规划 (1)数据中心改造方案 (1)2.1业务互联网接入区域高可用设计 (1)2.2业务互联网接入区域双活设计 (2)2.3业务区高可用设计 (4)2.4业务区综合前置区域基于IP的双活设计 (5)2.5业务区OA区域基于IP的双活设计 (6)2.6测试区域应用高可用设计 (8)2.7项目利旧设备调换说明 (8)3实施计划 (9)3.1互联网接入区F5LC替换说明 (9)3.2互联网接入区F5LC替换业务影响 (9)3.3应用区F5LTM替换说明 (10)3.4应用区F5LTM替换业务影响 (10)1数据中心现状目前有番禺生产机房和柯子岭灾备机房,两个数据中心采用裸纤DWDM互联。

数据中心按其所部署业务属性不同,划分为外网网银区、内网综合前置区、内网OA区以及负责办公用户上网的互联网接入区。

2项目规划为提升数据中心IT资源利用效率,同时保障业务灾难时的平滑切换,计划将两中心建设为双活数据中心,并对原机房中部署的F5设备进行升级。

数据中心改造方案2.1业务互联网接入区域高可用设计•网银区域高可用包括了接入互联网链路的高可用和Web/App应用的高可用。

•在链路高可用上采用F5互联网融合解决方案,通过部署F5 BR-4000S,实现链路负载均衡、多数据中心负载均衡、DNS server、DDOS防护、数据中心防火墙等诸多L4-L7 Services,解决了传统架构中的“糖葫芦串”的复杂部署,简化了网络架构,降低了后期的运维管理成本。

在番禺生产机房部署2台BR-4000s,通过Scale N+M集群保证网银出口的高可靠性;•互联网出口处F5实现的DDOS防护功能有效保护了外网DNS系统的安全;•将外网DNS迁移部署到F5设备上,为广州农商银行实现了高性能的智能DNS系统;•在应用高可用方面,Web层使用LTM4000s,App层使用LTM2000s,实现对应用的负载均衡、SSL Offload、健康检查和会话保持等功能。

双活或多活_数据中心网络建设方案详细

数据中心网络建设方案目录第一章数据中心现状分析 (4)第二章数据中心网络技术分析 (4)2.1 路由与交换 (4)2.2 EOR 与TOR (5)2.3网络虚拟化 (5)2.3.1 网络多虚一技术 (5)2.3.2网络一虚多技术 (7)2.4 VM互访技术(VEPA) (7)2.5 虚拟机迁移网络技术 (11)第三章方案设计 (13)3.1网络总体规划 (13)3.2省级数据中心网络设计 (15)3.3市级数据中心网络设计 (16)3.4区县级数据中心网络设计 (17)3.5省、市、区/县数据中心互联设计 (18)3.5.1省、市数据中心互联 (18)3.5.2市、区/县数据中心互联 (19)3.5.3数据中心安全解决方案 (19)第四章方案的新技术特点 (21)4.1量身定制的数据中心网络平台 (21)4.1.1最先进的万兆以太网技术 (21)4.1.2硬件全线速处理技术 (22)4.1.3 Extreme Direct Attach技术 (24)4.1.5 帮助虚机无缝迁移的XNV技术 (29)4.1.5环保节能的网络建设 (33)4.2 最稳定可靠的网络平台 (34)4.2.1 独有的模块化操作系统设计 (34)4.2.2超强的QOS服务质量保证 (35)4.3先进的网络安全设计 (37)4.3.1设备安全特性 (38)4.3.2用户的安全接入 (39)4.3.3智能化的安全防御措施 (40)4.3.4常用安全策略建议 (41)附录方案产品资料 (45)1.核心交换机BD 8800 (45)2.SummitX670系列产品 (49)3.三层千兆交换机Summit X460 (61)4.核心路由器MP7500 (69)5.汇聚路由器MP7200 (75)6.接入路由器MP3840 (81)7.接入路由器MP2824 (85)8.MSG4000综合安全网关 (90)第一章数据中心现状分析云计算数据中心相比较传统数据中心对网络的要求有以下变化:1、Server-Server流量成为主流,而且要求二层流量为主。

双活数据中心规划设计

双活数据中心规划设计双活数据中心规划设计文档⒈引言⑴目的⑵范围⑶定义⒉背景⑴组织概况⑵数据中心现状⑶需求分析⒊双活数据中心架构设计⑴双活数据中心概述⑵数据流程分析⑶网络架构设计⑷存储架构设计⑸安全性和高可用性设计⑹容灾和故障恢复设计⒋双活数据中心基础设施设计⑴地理位置选择⑵电力供应设计⑶冷却系统设计⑷网络连接设计⑸计算设备选型⑹存储设备选型⑺安全设备选型⒌参数配置和容量规划⑴服务器数量和配置⑵存储容量规划⑶网络带宽规划⑷功耗和散热规划⒍实施计划⑴项目里程碑⑵活动计划⑶资源分配⒎风险管理和备份策略⑴风险识别与分类⑵应对措施和预案⑶备份策略和恢复方案⒏测试计划与验证⑴测试目标与方法⑵系统集成测试⑶容灾演练与验证⒐项目交付与验收⑴交付标准⑵验收标准和程序⑶文档交付和培训⒑附件附件1:数据中心平面图附件2:网络架构图附件3:存储架构图附件4:容灾和故障恢复流程图法律名词及注释:●数据保护:数据保护是指对数据进行保护和备份,以防止数据丢失、被篡改或意外损坏。

●数据隐私:数据隐私是指个人或组织对其个人信息的隐私权和数据保护的要求。

●可用性:可用性是指系统或服务处于可正常使用状态的能力。

●法规合规:法规合规是指组织履行法律、法规、政策和行业标准等法规要求的过程和实践。

●机密性:机密性是指信息只能被授权的个人或组织访问和使用的属性。

●容灾:容灾是指在发生灾害或故障时,确保系统或服务继续运行的能力。

●故障恢复:故障恢复是指将系统或服务从故障状态恢复到正常状态的过程。

●网络安全:网络安全是指保护计算机网络不受未经授权的访问、破坏、篡改或泄露的保护措施。

●业务连续性:业务连续性是指在发生灾害或故障时维持组织关键业务的能力。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

目录第1章概述 (2)1.1数据集中阶段的数据中心建设 (2)1.1.1 传统架构存在的问题 (2)1.1.2 H3C全融合虚拟化架构 (3)1.2双活数据中心建设目标 (3)第2章双活数据中心业务部署 (5)2.1基于IP的业务部署模式 (5)2.1.1 模式简介 (5)2.1.2 企业数据中心IP业务典型部署 (5)2.2基于DNS的业务部署模式 (7)2.2.1 DNS技术简介 (7)2.2.2 企业数据中心DNS典型部署 (8)2.2.3 GSLB与SLB (10)第3章XXXX双活数据中心设计 (13)3.1XXXX网络结构 (13)3.2XXXX双活数据中心部署 (13)第1章概述为进一步推进XXXX信息化建设,以信息化推动XXXX业务工作的改革与发展,XXXX在科技楼建有核心机房和一个小的本地容灾备份中心,现在在干保楼又新建了容灾网,实现同城双中心布局。

为提高业务可靠性与双中心设备资源的利用率,XXXX拟建同城双活数据中心,达到双中心同时对外提供同种业务的目标,同时实现业务切换无感知、计算资源灵活调度的功能目标。

1.1 数据集中阶段的数据中心建设1.1.1传统架构存在的问题传统数据中心网络采用传统以太网技术构建,随着各类业务应用对IT需求的深入发展,业务部门对资源的需求正以几何级数增长,传统的IT基础架构方式给管理员和未来业务的扩展带来巨大挑战。

具体而言存在如下问题:维护管理难:在传统构架的网络中进行业务扩容、迁移或增加新的服务功能越来越困难,每一次变更都将牵涉相互关联的、不同时期按不同初衷建设的多种物理设施,涉及多个不同领域、不同服务方向,工作繁琐、维护困难,而且容易出现漏洞和差错。

比如数据中心新增加一个业务类型,需要调整新的应用访问控制需求,此时管理员不仅要了解新业务的逻辑访问策略,还要精通物理的防火墙实体的部署、连接、安装,要考虑是增加新的防火墙端口、还是需要添置新的防火墙设备,要考虑如何以及何处接入,有没有相应的接口,如何跳线,以及随之而来的VLAN、路由等等,如果网络中还有诸如地址转换、7层交换等等服务与之相关联,那将是非常繁杂的任务。

当这样的IT资源需求在短期内累积,将极易在使得系统维护的质量和稳定性下降,同时反过来减慢新业务的部署,进而阻碍公司业务的推进和发展。

●资源利用率低:传统架构方式对底层资源的投入与在上层业务所收到的效果很难得到同比发展,最普遍的现象就是忙的设备不堪重负,闲的设备资源储备过多,二者相互之间又无法借用和共用。

这是由于对底层网络建设是以功能单元为中心进行建设的,并不考虑上层业务对底层资源调用的优化,这使得对网络的投入往往无法取得同样的业务应用效果的改善,反而浪费了较多的资源和维护成本。

●服务策略不一致:传统架构最严重的问题是这种以孤立的设备功能为中心的设计思路无法真正从整个系统角度制订统一的服务策略,比如安全策略、高可用性策略、业务优化策略等等,造成跨平台策略的不一致性,从而难以将所投入的产品能力形成合力为上层业务提供强大的服务支撑。

1.1.2H3C全融合虚拟化架构H3C提供横向虚拟化、1虚多的设备虚拟化以及纵向虚拟化的全融合虚拟化方案。

通过建设网络资源池,不仅简化了网络部署,而且提高了网络设备的利用率,是业界最具优势的数据中心网络解决方案。

1.2 双活数据中心建设目标XXXX双活数据中心应实现如下设计目标:●简化管理:同城双中心业务统一部署,统一管理,使上层业务的变更作用于物理设施的复杂度降低,能够最低限度的减少了物理资源的直接调度,使维护管理的难度和成本大大降低。

●高效复用:同城双中心网络资源与计算资源高效利用,减少设备主备部署,提高网络设备利用率。

物理服务器部署虚拟机,实现计算资源高度复用,提高计算资源利用率。

●策略一致:降低具体设备个体的策略复杂性,最大程度的在设备层面以上建立统一、抽象的服务,每一个被充分抽象的服务都按找上层调用的目标进行统一的规范和策略化,这样整个IT将可以达到理想的服务规则和策略的一致性。

●无缝切换:同城双中心同时对外提供同一种业务,当某中心业务失效,要实现应用的无缝切换,在短时间内实现业务的快速恢复。

●资源调度:同城双中心二层互联,计算资源可以在双中心之间灵活迁移,快速扩展,统一调度。

第2章双活数据中心业务部署2.1基于IP的业务部署模式2.1.1模式简介基于IP发布的业务一般用于企业内部管理,业务运营。

客户直接通过访问某个IP 地址来实现端到端通信。

由标准的路由协议以及健康路由注入来实现IP地址的自动发布。

2.1.2企业数据中心IP业务典型部署两个数据中心的SLB跨中心部署HA Cluster,服务器跨数据中心部署负载均衡集群。

同一个业务的在两个数据中心的业务IP不同,分别为VIP-A与VIP-B。

1、部署时External self IP和业务IP可以直接使用相同的网段,因为用户访问业务时通过主机路由进行选路,而HA Cluster中只有为Active的SLB才会发布主机路由。

2、对于同一业务,数据中心A使用VIP-A对外提供服务,数据中心B使用VIP-B对外提供服务,实现业务在两个数据中心之间的负载均衡,当数据中心A发生故障时,Traffic group-1将进行HA切换,VIP-A的主机路由将由数据中心B的SLB发布。

如果数据中心A的SLB发生故障,如图所示。

由于两个数据中心的SLB跨中心部署HA Cluster,服务器跨数据中心部署负载均衡集群,所以数据中心B的SLB在一个心跳周期结束之后,感知到数据中心A的SLB 无响应,数据中心A的SLB发生故障,Traffic Group-1将发生HA切换,此时用户访问VIP-A时将直接到达数据中心B,由SLB处理后发送至数据中心A的服务器。

如果当数据中心A的服务器发生故障,如图所示。

数据中心SLB探测到本中心的服务器都故障,则触发Traffic Group-1将发生HA 切换,此时用户访问VIP-A时将直接到达数据中心B,由数据中心B的服务器进行处理,因为此时数据中心A的服务器已无处理能力。

2.2基于DNS的业务部署模式2.2.1DNS技术简介2.2.2企业数据中心DNS典型部署数据中心A和数据中心B分别使用VIP-A和VIP-B对外提供服务,当用户请求域名时,GSLB根据设定的权值给不同用户返回VIP-A或VIP-B。

SLB实现HA Cluster后,可以根据将不同的业务IP划分到不同的Traffic Group,HA的切换是基于Traffic Group实现的,以VIP-A对应的Traffic Group-1为例。

Traffic Group-1的缺省设备是数据中心A中的SLB,VIP-A在该SLB上生效,当Traffic Group-1发生HA切换后,VIP-A将在数据中心B中的SLB上生效。

SLB对数据中心A和数据中心B内的服务器都进行健康检查,负载分担算法设置本数据中心内的优先级较高,当有业务需要处理时,会优先选择本数据中心的服务器进行处理,当本数据中心的服务器都发生故障后,将由远端数据中心的服务器处理业务,同时触发Traffic Group的HA切换。

GSLB会对LTM的健康状态进行检查,当发现LTM故障后,将触发DNS的切换,从而实现全局路径的优化。

如此,即可将客户端访问数据中心的流量实现有效的负载分担,使双中心的利用率最高。

如果数据中心A的SLB故障后,如图所示。

因为两个数据中心的SLB跨中心部署HA Cluster,服务器跨数据中心部署负载均衡集群。

当数据中心A的SLB发生故障时,Traffic Group-1将发生HA切换,VIP-A在数据中心B的SLB上生效,用户访问服务器的流量将经过二层LAN扩展网络到达数据中心B的SLB,经过处理后再发送至数据中心A中的服务器进行处理。

因此,实现故障切换过程客户无感知。

当数据中心A的SLB发生故障后,GSLB还是会探测本中心的SLB,在探测超时后对故障进行感知,触发DNS切换,此时用户访问时,该域名将被解析为VIP-B,解决业务流量次优路径的问题。

如果数据中心A的SLB故障后,如图所示。

当数据中心A的服务器都发生故障时,Traffic Group-1将发生HA切换,VIP-A 在数据中心B的SLB上生效,用户访问服务器的流量将经过二层LAN扩展网络到达数据中心B的SLB,服务器返回的流量经过二层LAN经过二层LAN扩展网络到达数据中心A,实现业务切换无流量丢失。

2.2.3GSLB与SLBGSLB即全局负载均衡设备,又名GTM,如下图所示。

GSLB的工作原理,如下图所示。

GSLB能够完成DNS解析请求的负载均衡、服务器状态监控以及用户访问路径优化,解决跨中心业务的协同问题,提高多中心资源利用效率,实现全局负载均衡。

SLB即服务器负载均衡设备,又名LTM,主要用来完成本地流量的管理,实现服务器集群的负载分担,同时通过多种算法探测服务器健康状态,给业务切换提供依据与触发条件。

如下图所示。

LTM设备能够支持四台跨数据中心集群,实现SLB 的LOCAL CLUSTER的功能,提高了LTM本身的稳定性与可靠性,同时实现多业务的负载分担。

第3章XXXX双活数据中心设计3.1 XXXX网络结构3.2XXXX双活数据中心部署XXXX双活数据中心关键在于中心A和中心B各部署两台S12500核心交换机。

核心交换机部署横向虚拟化IRF,一虚多MDC以及云间互联EVI,配合GTM和LTM,实现应用级容灾。

部署过程如下:1.双中心各两台S12508先横向虚拟化IRF,将两台或多台物理设备虚拟成一台逻辑设备,逻辑上成为一个网元。

如图所示。

横向虚拟化的优势IRF:统一的管理:由其中某物理设备的某控制单元作为整组设备的控制单元统一的板卡和端口命名:各个设备加机框ID的前缀统一的L2/L3、IPv4/IPv6、MPLS等转发表可以实现跨设备的链路聚合2.在横向虚拟化的基础之上,再部署一虚多的设备虚拟化技术MDC(Multitenant Device Context),可以实现将一台物理网络设备通过软件虚拟化成多台逻辑网络设备。

也就是说通过软、硬件虚拟化的配合,MDC逻辑设备具有完全的设备功能,有独立的软件环境和数据,有独立的硬件资源。

甚至可以像一台物理设备一样单独重启,而不影响物理设备上其他MDC的正常运行。

如图所示。

在MDC1所属的板卡上可以部署各个业务的业务网关,在MDC2上部署EVI 特性,实现双中心之间的二层互通,优化二层网络质量,防止单中心故障域扩散到多中心。

双中心之间的光纤链路保持,可以提高二层互联的传输保障。

3.两个数据中心部署LTM,可以实现四台LTM跨中心部署可集群,可以保证虚拟机迁移过程中业务的不中断。

相关文档
最新文档