银行双活数据中心建设方案
双活数据中心解决方案

应急演练:定 期进行应急演 练,提高应急 处理能力和团
队协作能力
持续优化:根 据实际运行情 况,不断优化 应急恢复方案, 提高数据中心 的可靠性和稳
定性。
6
成功案例分析
某银行采用双活数据中心解决方案,实现业 务连续性
某电商采用双活数据中心解决方案,应对双 十一等大流量场景
某政府机构采用双活数据中心解决方案,保 障政务系统稳定运行
故障排除:根据故障原因, 采取相应措施进行故障排除
06
总结分析:对故障原因进行 总结分析,提出改进措施, 防止类似故障再次发生
故障处理流程
01
故障检测:实时监控系统,及 时发现故障
03
故障修复:采取相应措施,修 复故障
05
故障总结:分析故障原因,总结 经验教训,提高系统可靠性
02
故障定位:分析故障原因,确 定故障位置
1 确保两个数据 中心的数据实 时保持一致
数据压缩技
2 术:减少数 据传输的带 宽占用
数据加密技
3 术:保障数 据传输的安 全性
数据校验技
4 术:确保数 据的完整性 和准确性
负载均衡技术
概念:将网络流量 均匀地分配到多个
服务器,提高系统 1
的性能和可用性
应用场景:双活数 4
据中心、云计算、 负载均衡器等
3
数据中心容灾备份
01
应用场景:数据中心故障、自然灾害、网络攻击等
02
功能:实时数据备份、数据恢复、业务连续性保障
03
技术实现:存储虚拟化、数据复制、数据压缩等
04
优势:降低数据丢失风险、提高业务连续性、降低运营成本
业务连续性保障
01 双活数据中心解决方案可
双活数据中心方案30222

双活数据中心方案一、需求背景:随着数据的大集中,银行纷纷建设了负责本行各业务处理的生产数据中心机房(一般称为数据中心),数据中心因其负担了全行业务,所以其并发业务负荷能力和不间断运行能力是评价一个数据中心成熟与否的关键性指标。
近年来,随着网上银行、手机银行等各种互联网业务的迅猛发展,银行数据中心的业务压力业成倍增加,用户对于业务访问质量的要求也越来越高,保障业务系统的7*24小时连续运营并提升用户体验成为信息部门的首要职责。
商业银行信息系统的安全、稳定运行关系着国家金融安全和社会稳定,监管机构也十分重视商业银行的灾难备份体系建设,多次发布了商业银行信息系统灾难备份的相关标准和指引,对商业银行灾备系统建设提出了明确的要求。
为适应互联网业务的快速增长,保障银行各业务安全稳定的不间断运行,提高市场竞争力,同时符合监管机构的相关要求,建设灾备、双活甚至多活数据中心正在成为商业银行的共同选择。
二、发展趋势:多数据中心的建设需要投入大量资金,其项目周期往往很长,涉及的范围也比较大。
从技术上来说,要实现真正意义上的双活,就要求网络、应用、数据库和存储都要双活。
就现阶段来看,大多数客户的多数据中心建设还达不到完全的双活要求,主流的建设目标是实现应用双活。
目前客户建设多数据中心的模型可以归纳为以下几种:1.单纯的数据容灾:正常情况下只有主数据中心投入运行,备数据中心处于待命状态。
发生灾难时,灾备数据中心可以短时间内恢复业务并投入运行,减轻灾难带来的损失。
这种模式只能解决业务连续性的需求,但用户无法就近快速接入。
灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。
2.构建业务连续性:两个数据中心(同城/异地)的应用都处于活动状态,都有业务对外提供服务且互为备份。
但出于技术成熟度、成本等因素考虑,数据库采用主备方式部署,数据库读写操作都在主中心进行,灾备中心进行数据同步。
双活数据中心方案

双活数据中心方案本文档旨在详细介绍双活数据中心方案。
双活数据中心是指在一个组织内部建立两个或更多的数据中心,使得在任何情况下均能保持高可用性和冗余性。
1\引言1\1 背景1\2 目的1\3 范围2\双活数据中心架构2\1 数据中心结构概述2\2 网络架构2\3 存储架构2\4 计算架构2\5 负载均衡和容错机制3\双活数据中心部署规划3\1 数据中心位置选择3\2 网络连接规划3\3 存储规划3\4 计算资源规划3\5 安全规划4\数据同步与复制4\1 数据同步原理4\2 数据同步技术选型4\3 数据复制策略4\4 数据完整性和一致性保证5\高可用性与故障转移5\1 故障转移策略5\2 自动化故障转移5\3 监控与预警5\4 容灾测试和演练6\数据中心升级与维护6\1 升级策略和计划6\2 维护策略和计划6\3 软硬件升级流程6\4 灾难恢复过程7\附件●附件1: 双活数据中心网络拓扑图●附件2: 存储架构示意图注释:1\双活:指两个或更多数据中心在活动状态下同时运行,发生故障时能够实现无缝切换。
2\可用性:指系统或服务在规定时间内处于可用状态的能力。
3\冗余性:指系统或服务拥有多余的资源,以保证在故障发生时能够继续提供服务。
4\容错机制:指系统或服务所具备的自动恢复能力,以确保任何故障不会导致系统崩溃或服务中断。
本文档所涉及的法律名词及注释:1\双活数据中心方案:在法律上指一个组织内部建立两个或更多的数据中心,以确保数据和服务的高可用性和冗余性。
2\高可用性:在法律上指系统或服务在规定时间内能够持续提供可用性的能力。
3\故障转移:在法律上指系统或服务在发生故障时自动切换到备用设备,以保证服务的连续性。
4\监控与预警:在法律上指对数据中心和相关设备进行实时监控,并在发生异常情况时提供预警通知。
5\容灾测试和演练:在法律上指定期定时对数据中心的灾难恢复过程进行测试和演练,以验证其可用性和可行性。
本文档涉及附件:1\附件1: 双活数据中心网络拓扑图2\附件2: 存储架构示意图。
智慧银行云双活数据中心整体建设方案

根据数据中心业务特点和运维需求,制定合适的监控指标,包括基 础设施、应用系统、网络安全等方面的指标。
数据采集与存储
采用高效的数据采集技术和存储方案,确保监控数据的准确性和实 时性。
故障诊断与排除流程优化
故障诊断方法
结合监控数据和故障现象 ,采用多种故障诊断方法 ,快速定位故障原因。
故障排除流程
智慧银行云双活数据中心整 体建设方案
汇报人:xxx
汇报时间:2024-03-06
目录
• 项目背景与目标 • 总体架构设计 • 基础设施搭建与资源整合 • 业务连续性保障措施 • 安全管理策略实施 • 运维管理体系建设 • 总结回顾与未来展望
01
项目背景与目标
智慧银行发展趋势
01
数字化转型
智慧银行正通过数字化转型提 升服务质量和效率,以满足客
管理。
虚拟化技术应用
采用成熟的虚拟化技术,如 VMware、KVM等,实现服务器 虚拟化、桌面虚拟化等应用场景, 提高资源利用率和管理效率。
高性能计算支持
针对高性能计算需求,提供GPU虚 拟化、FPGA虚拟化等技术支持,满 足科学计算、图形处理等高性能应 用场景。
存储资源池化及虚拟化技术应用
存储资源池化
运维流程优化
根据实际运维经验和反馈,不断优化运维流程和管理制度,提升 运维管理水平。
07
总结回顾与未来展望
项目成果总结回顾
成功构建智慧银行云双活数据中心
完成了双活数据中心的基础架构建设,实现了业务系统的双活部署,大幅提升了银行业务 的连续性和灾备能力。
优化资源配置,提高资源利用率
通过云计算技术,实现了计算、存储、网络等资源的池化管理和动态调配,提高了资源的 利用率和管理效率。
银行双活数据中心建设方案

银行双活数据中心建设方案目录1数据中心现状 (1)2项目规划 (1)数据中心改造方案 (1)2.1业务互联网接入区域高可用设计 (1)2.2业务互联网接入区域双活设计 (2)2.3业务区高可用设计 (4)2.4业务区综合前置区域基于IP的双活设计 (5)2.5业务区OA区域基于IP的双活设计 (6)2.6测试区域应用高可用设计 (8)2.7项目利旧设备调换说明 (8)3实施计划 (9)3.1互联网接入区F5LC替换说明 (9)3.2互联网接入区F5LC替换业务影响 (9)3.3应用区F5LTM替换说明 (10)3.4应用区F5LTM替换业务影响 (10)1数据中心现状目前有番禺生产机房和柯子岭灾备机房,两个数据中心采用裸纤DWDM互联。
数据中心按其所部署业务属性不同,划分为外网网银区、内网综合前置区、内网OA区以及负责办公用户上网的互联网接入区。
2项目规划为提升数据中心IT资源利用效率,同时保障业务灾难时的平滑切换,计划将两中心建设为双活数据中心,并对原机房中部署的F5设备进行升级。
数据中心改造方案2.1业务互联网接入区域高可用设计•网银区域高可用包括了接入互联网链路的高可用和Web/App应用的高可用。
•在链路高可用上采用F5互联网融合解决方案,通过部署F5 BR-4000S,实现链路负载均衡、多数据中心负载均衡、DNS server、DDOS防护、数据中心防火墙等诸多L4-L7 Services,解决了传统架构中的“糖葫芦串”的复杂部署,简化了网络架构,降低了后期的运维管理成本。
在番禺生产机房部署2台BR-4000s,通过Scale N+M集群保证网银出口的高可靠性;•互联网出口处F5实现的DDOS防护功能有效保护了外网DNS系统的安全;•将外网DNS迁移部署到F5设备上,为广州农商银行实现了高性能的智能DNS系统;•在应用高可用方面,Web层使用LTM4000s,App层使用LTM2000s,实现对应用的负载均衡、SSL Offload、健康检查和会话保持等功能。
商业银行应用双活架构设计方案

商业银行应用双活架构设计方案在商业银行的信息技术架构中,双活架构是一种旨在提高系统可用性和容错能力的方案。
它基于分布式架构原理,通过将数据和业务逻辑同时部署在两个独立的数据中心或机房,以实现高可用性、高可靠性和高性能。
双活架构的设计方案主要包括以下几个关键要素:1.双机房部署:商业银行需要选择两个地理位置相距较远的机房或数据中心进行部署。
这样可以避免单点故障,提高系统的容错能力。
两个机房之间应该采用高速可靠的网络连接,以保证数据的实时同步。
2.数据同步和复制:双活架构下,数据的同步和复制是实现高可用性的关键。
商业银行需要选择合适的数据同步技术和策略,确保两个机房之间的数据实时同步和一致性。
常用的数据同步方式包括基于日志的增量同步、基于快照的全量同步和异步同步等。
3.负载均衡和故障切换:商业银行需要采用负载均衡技术将用户请求分发到两个机房中的可用服务器。
当一个机房出现故障时,另一个机房可以接管用户请求,实现系统的高可用性和容错能力。
常用的负载均衡算法包括轮询、加权轮询和最少连接数等。
4.异地容灾和故障恢复:商业银行需要实现异地容灾和故障恢复机制,以应对自然灾害、网络故障和硬件故障等异常情况。
这包括备份和恢复数据、搭建冷备和热备系统、定期进行灾难恢复演练等手段,确保在极端情况下系统能够迅速恢复。
5.监控和运维:商业银行需要建立完善的监控和运维体系,及时监测双活架构下各个组件的运行状态和性能指标。
这包括实时监控系统的可用性、负载情况和数据同步状态,定期进行巡检和性能调优,确保系统的稳定性和可靠性。
总结起来,商业银行在应用双活架构的设计方案中需要考虑到双机房部署、数据同步和复制、负载均衡和故障切换、异地容灾和故障恢复以及监控和运维等关键要素。
通过合理设计和实施双活架构方案,商业银行可以提升系统的可用性和容错能力,为客户提供更加稳定可靠的金融服务。
“双活”数据中心构建技术及实现路径(银行)

银行“双活”数据中心构建技术及实现路径■ 中国农业发展银行总行 李小庆 赵建现代银行业作为知识密集型产业,从产品创新、风险控制到监管调控、战略决策等各方面都需要信息技术的支持。
信息系统的安全可靠不仅是银行赖以生存和发展的基础,还关系到整个银行业的安全甚至国家金融秩序的稳定。
如何持续提升信息系统的连续性水平,为业务连续性打造更加坚实的基础,是银行在信息化发展过程中需要重点研究和解决的问题。
近年来,随着云计算、虚拟化等技术的飞速发展,传统的数据中心灾备模式正在进行悄然变革。
出于提升信息系统高可用性、提高数据中心资源利用率等需求的考虑,“双活”逐渐成为业内数据中心发展的主流趋势。
1银行业数据中心的发展情况信息化发展给银行带来了翻天覆地的变化,而数据中心作为银行信息系统运营的中枢和业务经营的基础支撑,为适应银行信息化发展和业务创新的需求,也在持续不断地完善和革新。
中国银行业的信息化发展起步于20世纪80年代,一直走在各行业的前列,其过程正是一部信息技术和业务需求相互促进、逐步融合的历史。
信息化发展给银行带来了翻天覆地的变化,而数据中心作为银行信息系统运营的中枢和业务经营的基础支撑,为适应银行信息化发展和业务创新的需求,也在持续地进行着完善和革新。
1.1数据大集中上世纪末到本世纪初,业务大集中的需求给银行带来了数据大集中的变革。
为实现信息系统在物理构架上的集中,银行普遍建立了高可靠性和高扩展性的数据中心,对业务数据进行集中处理和统一管理。
数据中心满足了数据大集中的需求,为银行进行业务流程改造创新以及数据深层挖掘分析提供了必要的技术支撑,推动了银行向决策科学化方向迈进,提高了银行整体的运作效率和管理水平。
1.2灾备体系建设数据大集中同时意味着各类风险的高度集中。
因此,在发生灾难或重大紧急事件时,如何保障信息系统的稳定运行和数据安全成为银行在完成数据大集中改造后面临的首要问题,数据中心“容灾”需求日益强烈。
过去的十年里,银行业掀起了灾备中心建设的浪潮并取得了巨大进展。
银行跨数据中心数据库双活架构设计

银行跨数据中心数据库双活架构设计难点一:数据库双活,如何解决几十公里延时带来的性能问题?分享一:几十公里的延时主要表现在两方面,一个是存储双写延迟,一个是节点通信延迟。
从存储延时来说首先要做到本地读。
这个在GPFS文件系统里是可以做到的。
其次是增大缓存,减少同步写的次数。
对于数据库里的大对象,最好使用inline的方式放在常规表空间里,或者存放在开启了文件缓存的表空间里。
对于数据库日志,一定要设置足够的日志缓冲池,避免因为缓冲池不够发生的同步写。
在通信的延迟上,我们需要做到的是尽量减少通信。
所以要想办法解决热点数据问题。
同时能够本地访问和缓冲的都要想办法实现。
例如推荐采用客户端偏好链接。
基于current member来组织表和数据等等。
(孔再华)有个问题,由于CF节点只有一个,对于写来说,必然存在两个站点的DB2 MEMBER都同时需要通过RDMA访问CF节点GBP,本地来说,问题不存在,跨站点RDMA访问的话,这个通信耗时和性能是否需要重点关注?(邓毓)你说的非常正确,跨站点的member和CF通信需求是双活环境调优的关键。
所以这个就是重点关注的对象,要减少这种交互。
数据库提供了mon_get_cf等相关表函数能够抓取CF的功能和耗时,进而分析是什么操作最慢,能不能减少或者调整。
(孔再华)分享二:我从Oracle数据库层RAC说一下吧,个人比较喜欢用ASM,用ASM可以解决一部分性能问题,之所以说一部分是因为ASM也只能解决"读"的问题;由于距离产生的延迟,那么最好的办法就是不缩短距离,这个好像是废话,但是对于Oracle ASM的 redundancy来说其实是可以做到的,比如创建Oracle ASM的磁盘组的时候选择的是Normal redundancy的方式,那么磁盘组就会至少有2个failure group ,而我们可以把2个failure group里的物理盘手工的划分到不同的物理位置,一般双活都有2个机房,那么一个failure group里放一个机房的磁盘,另外一个fialure group里放置另外一个机房的磁盘,这样双活也就实现了,但是随即而来的问题就是物理距离的增加和光信号的衰减和传输的性能降低,Oracle ASM考虑到提升一部分功能,在参数里提供了asm_preferred_read_failure_groups这个参数,也就是说当做物理读的时候每一个机房里的节点(RAC节点)都可以配置自己优先读的“机房” ,这样可以保证“读”不受“距离”的影响,但是“写” 是必须要在双节点都完成的,所以对于ASM来说对于“写”也没有特别好的办法解决距离产生的延迟。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
银行双活数据中心建设方案
目录
1数据中心现状 (1)
2项目规划 (1)
数据中心改造方案 (1)
2.1业务互联网接入区域高可用设计 (1)
2.2业务互联网接入区域双活设计 (2)
2.3业务区高可用设计 (4)
2.4业务区综合前置区域基于IP的双活设计 (5)
2.5业务区OA区域基于IP的双活设计 (6)
2.6测试区域应用高可用设计 (8)
2.7项目利旧设备调换说明 (8)
3实施计划 (9)
3.1互联网接入区F5LC替换说明 (9)
3.2互联网接入区F5LC替换业务影响 (9)
3.3应用区F5LTM替换说明 (10)
3.4应用区F5LTM替换业务影响 (10)
1数据中心现状
目前有番禺生产机房和柯子岭灾备机房,两个数据中心采用裸纤DWDM互联。
数据中心按其所部署业务属性不同,划分为外网网银区、内网综合前置区、内网OA区以及负责办公用户上网的互联网接入区。
2项目规划
为提升数据中心IT资源利用效率,同时保障业务灾难时的平滑切换,计划将两中心建设为双活数据中心,并对原机房中部署的F5设备进行升级。
数据中心改造方案
2.1业务互联网接入区域高可用设计
•网银区域高可用包括了接入互联网链路的高可用和Web/App应用的高可用。
•在链路高可用上采用F5互联网融合解决方案,通过部署F5 BR-4000S,实现链路负载均衡、多数据中心负载均衡、DNS server、DDOS防护、数据中心防火墙等诸多L4-L7 Services,解决了传统架构中的“糖葫芦串”的复杂部署,简化了网络架构,降低了后期的运维管理成本。
在番禺生产机房部署2台BR-4000s,通过Scale N+M集群保证网银出口的高可靠性;
•互联网出口处F5实现的DDOS防护功能有效保护了外网DNS系统的安全;
•将外网DNS迁移部署到F5设备上,为广州农商银行实现了高性能的智能DNS系统;
•在应用高可用方面,Web层使用LTM4000s,App层使用LTM2000s,实现对应用的负载均衡、SSL Offload、健康检查和会话保持等功能。
业务互联网接入区域改造后拓扑示意图如下所示:
业务互联网接入区域改造后拓扑示意图
2.2业务互联网接入区域双活设计
•互联网区域应用双活主要通过基于域名的解决方案实现。
在番禺生产机房部署2台BR-4000s,在柯子岭灾备机房部署2台BR-4000s。
主中心“主备备”的部署模式在多数银行架构中被采用,能够进一步提高可用性;
•用户解析网银域名时,由GTM决定将用户流量导向最合适的数据中心;
•一旦出现一个数据中心崩溃的情况,GTM将平滑将用户流量牵引到可用的数据中心。
•番禺机房Web层原部署设备为LTM3600,将其替换为LTM 4000s,并在柯子岭灾备机房新增2台LTM 4000s;App层原有2台LTM2000s,在柯子岭灾备机房新增2台LTM2000s。
业务互联网接入区域双活改造后的拓扑示意图如下所示:
业务互联网接入区域双活改造后的拓扑示意图
改造后F5 LTM 3900采用主备双机串联接入模式链路中,两台F5 GTM 3600采用单臂旁挂模式分别接入原有电信和联通ISP链路上。
2.3业务区高可用设计
内网业务区综合前置区域原部署了3台LTM3900负责前置业务的高可用,此项目中将使用更高性能的LTM5050s替换,在番禺生产机房部署3台,采用Scale N+M集群提供更高的可靠性;
替换下的3台LTM3900部署在OA区,其中番禺部署2台,柯子岭部署1台,使用Scale N+M技术将3台组成一个集群。
2.4业务区综合前置区域基于IP的双活设计
F5基于IP的应用双活解决方案有两种:一种是RHI健康路由注入,一种是Scale N+M应用集群方式。
由于广州农商银行的同城双中心为L2连接,因此我们推荐使用Scale N+M集群方案,综合前置区域新增5台LTM5050s,采用主3+备2模式部署,不同的应用在不同的设备上均为Active;
在此方案中,我们将两个数据中心的5台设备做成一个集群,不同的应用在不同的设备上均为Active,下方应用服务器处于同一VLAN,两个数据中心的BIGIP设备均可调用;
当一台设备或一个数据中心出现问题时,系统会无缝的切换到之前设定的下一个健康的设备或数据中心,保证了应用的连续性。
2.5业务区OA区域基于IP的双活设计
F5基于IP的应用双活解决方案有两种:一种是RHI健康路由注入,一种是Scale N+M应用集群方式。
由于广州农商银行的同城双中心为L2连接,因此我们推荐使用Scale N+M方案;
在此方案中,我们将综合前置区域替下的3台LTM3900部署在OA区域,采用主2+备1模式,做成一个集群,不同的应用在不同的设备上均为Active,下方应用服务器处于同一VLAN,两个数据中心的BIGIP设备均可调用;
当一台设备或一个数据中心出现问题时,系统会无缝的切换到之前设定的下一个健康的设备或数据中心,保证了应用的连续性。
2.6测试区域应用高可用设计
测试区域的应用高可用主要用于生产系统上线前的测试,主要使用项目升级中替下的旧设备搭建;
为实现原有资产的利旧使用,建议测试系统采用广州农商银行之前采购的两台
LC1600(网银区互联网接入替下设备)和两台LC1600(办公区互联网接入替下设备)模拟测试环境,搭建与实际生产环境一样的拓扑,所灌装软件版本和生产区域保持一致,以保证测试环境所取得结果与生产环境下一样;
测试区域设备数量:
F5-BIG-LC-1600 * 4 (已有设备利旧)
2.7项目利旧设备调换说明
•原番禺数据中心业务互联网接入Web层使用LTM 4000s替换原有的2台LTM 3600。
替换下的设备调换至管理互联网接入区的App层部署。
•原番禺数据中心业务区使用5台LTM 5050S(主3备2)替换下原有的3台LTM 3900(主2备1)。
替换下的LTM 3900放置在OA区域,其中主2备1;
•原番禺数据中心OA区两台LTM 1600,调换至柯子岭灾备中心的管理互联网接入区的App层部署;
•将原番禺数据中心业务互联网接入和管理互联网接入的4台LC-1600调换至测试区域:
3实施计划
3.1互联网接入区F5 LC替换说明
互联网接入区因原F5 LC设备部署模式为串接,使用BIGIP-4000S-BR替换时,需要把旧设备配置导出,并且离线转换配置格式为上线版本的格式,再导
入BIGIP-4000S-BR上;
配置导入BIGIP-4000S-RB后,离线与现网使用设备进行配置比对。
上线时,需要把原F5 LC上网线拔除,连接BIGIP-4000S-BR网线。
验证业务是否正常,即验证F5上业务发布是否正常;F5 Outbound方向选路和负载是否正常;验证应用服务业务访问和选路是否正常,即验证F5
Inbound方向选路和负载是否正常;
经过验证各项指标满足改造要求则割接成功。
否则回退到割接前的网络结构并进行全业务测试,确保回退成功。
3.2互联网接入区F5 LC替换业务影响
割接过程中需要停止互联网接入区原F5 LC的工作,这会导致所有F5 LC相关的所有业务中断,包括服务器上网及其他相关应用服务业务。
3.3应用区F5 LTM替换说明
应用区因原F5 LTM设备部署模式为旁挂,使用BIGIP-4000S-LTM替换时,可以通过为新设备分配一组新的接口ip与业务ip,让新旧两套设备并存工作;
把现网在用设备配置导入BIGIP-4000S-LTM后,修改网络层接口ip为新分配ip,并且把所有virtualserver设置为disable和关闭arp响应。
把待测试应用virtualserver地址更改为新分配的业务地址。
验证业务是否正常,在此期间生产流量还是发送到原设备上,对生产业务不会造成影响;
经过验证各项指标满足改造要求后,可以删除旧设备上对应virtualserver地址,并且在新设备上把该virtualserver地址更改为生产地址,并且设置为
enable,生产流量切换到新设备上。
3.4应用区F5 LTM替换业务影响
可以通过新增业务ip的方式,让新旧设备并存,逐批业务进行切换,如果在切换期间发生问题,可以快速回滚业务到旧设备上,对业务造成影响较小。