GAD双活存储集群方案
双活数据中心解决方案通用

制定容灾策略,明确在发生故 障时的切换流程和恢复机制。
实施过程
01
02
03
04
基础设施搭建
按照设计方案搭建双活数据中 心的基础设施,包括服务器、
存储、网络设备等。
数据同步实施
配置数据同步机制,确保双活 数据中心之间的数据实时、准
确地同步。
网络配置与调优
配置和优化双活数据中心之间 的网络连接,确保网络性能满
3
自容错
存储系统应具备自动容错能力,当某个存储节点 发生故障时,能够自动进行数据恢复和重建,确 保数据的完整性。
双活数据中心的计算架构
分布式计算
01
采用分布式计算架构,充分利用两个数据中心的计算资源,实
现任务的并行处理和高效执行。
负载调度
02
通过智能负载调度算法,动态地将计算任务分配到最合适的计
容错机制
当其中一个数据中心发生故障时, 另一个数据中心可以自动接管业务 处理,实现业务不中断。
双活数据中心的优势和挑战
优势
高可用性:双活数据中心提供更高的业务可用性和连续性,减少计划内和计划外停 机时间。
灾难恢复:在自然灾害、设备故障等情况下,双活数据中心能够快速恢复业务运行 ,降低灾难风险。
双活数据中心的优势和挑战
网络架构需求
评估现有网络架构,确定双活数据中心所需的网 络带宽、延迟等要求。
方案设计
数据中心选址
选择适合建立双活数据中心的 地理位置,考虑自然灾害、网
络质量等因素。
网络架构设计
设计高效、稳定的网络架构, 确保双活数据中心之间的网络 连通性。
数据同步方案
设计数据同步机制,如基于存 储复制、数据库同步等技术实 现数据实时同步。
HDSGAD双活数据中心颠覆传统数据容灾

HDSGAD双活数据中心颠覆传统数据容灾在当今数字化时代,数据已成为企业和组织的核心资产,其重要性不言而喻。
数据的安全性、可用性和完整性对于企业的正常运营和持续发展至关重要。
然而,自然灾害、人为错误、硬件故障、网络攻击等各种风险随时可能导致数据丢失或业务中断,给企业带来巨大的损失。
为了应对这些挑战,数据容灾技术应运而生。
传统的数据容灾方案在一定程度上保障了数据的安全性和可用性,但随着业务的发展和技术的进步,其局限性也日益凸显。
HDSGAD 双活数据中心的出现,彻底颠覆了传统数据容灾的模式,为企业的数据保护和业务连续性带来了全新的解决方案。
传统数据容灾方案通常采用备份和恢复的方式,将数据定期备份到异地存储介质中,当主数据中心发生故障时,再将备份数据恢复到备用数据中心,以恢复业务运行。
这种方式存在着诸多问题。
首先,备份和恢复过程往往需要较长的时间,无法满足业务连续性的要求。
在竞争激烈的市场环境中,业务中断几分钟甚至几秒钟都可能导致客户流失、声誉受损和巨大的经济损失。
其次,备份数据可能存在一定的滞后性,导致恢复后的业务数据不完整,影响业务的正常开展。
此外,传统方案中的备用数据中心在平时处于闲置状态,资源利用率低下,增加了企业的成本。
HDSGAD 双活数据中心则完全不同,它实现了两个数据中心同时处于运行状态,并且能够实时同步数据和业务。
当一个数据中心出现故障时,另一个数据中心能够无缝接管业务,实现业务的零中断和数据的零丢失。
这种双活模式大大提高了业务的连续性和数据的安全性,为企业提供了更可靠的保障。
HDSGAD 双活数据中心的核心技术包括数据同步、应用切换和网络优化等。
数据同步是实现双活的关键,通过先进的复制技术,确保两个数据中心的数据实时保持一致。
应用切换技术则能够在故障发生时,快速将业务从故障数据中心切换到正常数据中心,确保业务的连续性。
网络优化技术则保障了数据在两个数据中心之间的快速传输,提高了系统的性能和响应速度。
双活数据中心解决方案操作与部署

生产阵列配置
创建主机(此处主机为VIS,为每个VIS控制器创建一个主机,并添加该控制 器的2个启动器到该主机)
Page 20
生产阵列配置
创建主机组(主机组是主机的集合,此处为所有VIS集群的主机,如果4节点 VIS集群则包含4个主机)
Page 21
生产阵列配置
创建映射视图(将LUN组与主机组建立映射关系)
Page 10
FC交换机配置
设置Domain ID:1、 切换为高级模式,2、Disable Switch->Apply,3、 填入Domain ID,4、Apply
Page 11
FC交换机配置
配置Zone:1、Create New Zone,2、从右侧将端口选入右侧,3、Save Config,4、Enable Config
FCSW 4
任务2:划分Zone
定义 Zone是指特定的交换机和设备能够进行通信的区域。通过FC交换 机跨数据中心级联和划分Zone的方式实现VIS6600T与存储阵列、 VIS6600T与应用主机以及VIS6600T节点间的链路互不干扰。
任务3:配置链路长距离模式端口
当链路用于长距离模式时,为该链路配置长距离端口。双活数据 中心解决方案中使用的每个FC端口都需要完成此配置。
Page 2
目录
1. 双活数据中心解决方案架构
2. 双活数据中心解决方案组网
3. 双活数据中心解决方案部署
Page 3
端到端双活数据中心解决方案架构
•GSLB:数据中心间负载均衡 •SLB:数据中心内负载 •中间件部署在虚拟机或者物理 机上 •Oracle或者其它数据库部署为 跨数据中心集群,共享磁盘由 VIS集群提供 •VIS部署为跨数据中心集群 •FC交换机冗余部署,跨数据中 心两两级联 •存储阵列将LUN映射给VIS集群 •波分设备实现跨数据中心的数 据传输(距离超过光模块传输距 离或者裸光纤数量不够时使用波 分) •第三方仲裁站点提供VIS集群的 仲裁盘
双活数据中心技术架构解决方案

添加 标题
主备数据中心:主数据中心负责处理业务, 备数据中心负责备份数据
添加 标题
数据同步方式:采用实时同步或异步同步 的方式,保证数据的一致性和完整性
添加 标题
数据同步策略:根据业务需求,制定合适 的数据同步策略,如全量同步、增量同步 等
添加 标题
数据同步工具:使用专业的数据同步工具, 如Oracle Data Guard、SQL Server AlwaysOn等,实现数据的高效同步。
主备模式:主 数据中心故障 时,备数据中
心接管业务
双活模式:两 个数据中心同 时提供服务, 故障时自动切
换
负载均衡模式: 根据业务需求, 动态调整数据
中心负载
故障检测与恢 复:实时监控 数据中心运行 状态,及时发 现并恢复故障
双活数据中心技术 架构应用场景
银行:实现数据备份和容灾,保障业务连续性 证券公司:实时同步交易数据,提高交易效率 保险公司:实时同步客户数据,提高客户服务水平 互联网金融公司:实时同步用户数据,提高用户体验
案例背景:某政府机构为了提高业务连续性和数据可靠性,决定实施双活数据中心技 术架构。
解决方案:采用双活数据中心技术架构,实现两个数据中心之间的实时数据同步和 业务负载均衡。
实施效果:提高了业务连续性和数据可靠性,减少了单点故障的风险。同时,提高了 系统可用性和响应速度,提升了用户体验。
评估结论:该政府机构的双活数据中心实施效果显著,值得其他政府机构借鉴和推 广。
业务扩展:支持企业业务扩 展,满足企业业务增长需求
技术升级:支持企业技术升 级,提高企业技术竞争力
双活数据中心技术 架构优势与挑战
数据安全:双活数据中心可以提供数据备份和恢复功能,确保数据安全。 系统稳定性:双活数据中心可以提供高可用性和容错性,确保系统稳定运行。 业务连续性:双活数据中心可以提供业务连续性,确保业务不受中断影响。 资源优化:双活数据中心可以提供资源优化,提高资源利用率。
双活数据中心解决方案

多数据中心运维的挑战
事件响应的及时性和有效性
运维的可持续性
系统复杂度很高,关联程度深,新员工难以对问题进行快速响应
互联网化带来的运维影响
复杂的外部环境带来的影响应用快速增加,新业务不断涌现
多数据中心运维
运维事件响应的及时有效性联动操作的快速有效性
配置之间的关联性配置的一致性两个中心如何协调联动
F5自动化运维部署整体架构
应用A访问
应用B访问
应用A访问
应用B访问
生产数据中心1
生产数据中心2
应用B
应用A
应用A
应用B
应用级双活数据中心模型三
-- 动态主主模型
双生产中心均需要完成生产业务通过数据复制技术将数据复制到对方通过业务模块或用户的方式将业务分配到不同的中心平时主要的处理能力均分配给生产应用系统使用出现灾难时,根据需要接管的方式,动态调度资源给备份系统使用
通过虚拟技术来提升资源利用率,降低管理和能源成本
自动化管理,自动化部署,实时监控, 动态伸缩, 提高管理效率及服务质量,降低服务成本
阶段业务目标
阶段业务目标
阶段业务目标
阶段业务目标
通过增加服务流程,实现IT服务标准化、自动化,自助式,IT资源的生命周期管理的云计算平台
负载均衡解决方案
多链路接入Web应用优化
安全与优化
全球化应用访问应用加速和带宽节省
同时卸载网络和服务器来提高应用访问速度
App Tier
Web Tier
Active
Standby
Active
Standby
Web Caches
F5 LTM + WebAccelerator
To Database
存储双活:怎样拥抱业务集群和虚拟机

存储双活:怎样拥抱业务集群和虚拟机
存储双活已家喻户晓人人皆知,但是,你知道存储双活+虚拟化+应用集群,应该如何部署呢?
在医疗、政府和制造等行业,对存储高可用和业务连续性有较高需求,业务集中在Oracle、虚拟化、ERP、MS SQL、HIS等系统,核心业务已经逐渐实现虚拟化,在云计算领域,OpenStack的Ironic模块和技术,就是要实现物理和虚拟化的整合和云统一。
通常,我们在核心系统中使用的关系数据库,如Oracle,在数据容灾用的Golden Gate本身license比较贵、而且在数据容灾切换上无法自动化,而且指标RPO=0、RTO要求的满足度不高。
逐渐的,客户业务Oracle RAC集群,或Oracle等数据库应用都部署在虚拟机上,采用虚拟机HA集群提供可靠性,采用存储双活实现业务连续性。
在考虑到商务问题,Oracle RAC相对于操作系统集群、Hypervisor自带的集群,价格高很多,所以在在项目实施过程中,一般也是折中建议采用系统自带应用和虚拟化集群。
存储跨中心双活方案设计指南
存储跨中心双活方案设计指南如何攻克十大技术难点?存储跨数据中心双活的方案是双活数据中心架构方案中最重要且最艰难的一项。
为了帮助企业IT架构师理清和解决存储跨中心双活方案架构的难点,twt社区专门邀请了企业IT架构师和存储专家整理出十个方案设计中较为典型的难点,逐一解析和解答,以帮助大家顺利地解决和尽量规避这些难点问题。
并整理为存储跨中心双活方案设计的一篇指南,方便大家收藏转发。
难点一:脑裂风险存储跨中心双活方案设计阶段该如何尽量避免脑裂?如何避免脑裂是每个双机系统都要重视的问题,存储双活系统尤其如此,脑裂会带来长时间的存储读写IO HANG住,轻则导致业务性能下降,重则因磁盘IO超时,导致数据库挂起甚至宕机,对生产业务系统造成重大影响。
所以在存储跨中心双活架构设计时,究竟应该如何尽量避免脑裂?解析和解答▼▼▼■邓毓某农信数据中心脑裂简单说就是两个数据中心间的网络和存储链路同时发生中断,导致两个数据中心内的应用、数据库或者操作系统同时抢占和利用共享的资源,造成资源的数据不一致,产生重大影响。
这个问题是存储跨中心双活方案设计、实施阶段不可避免要遇到的问题。
各个存储厂商、存储虚拟化产品厂商都有自己的避免脑裂的方式:(1)IBM SVC ESC/HYPERSWAP 或者IBM V9000/V7000/V5000 HYPERSWAP对于上述存储双活方案架构来说,呈现的是一种对称式的整体架构,为了防范脑裂,仲裁站点是必需的。
在仲裁站点中,基于IP的quorum节点和物理quorum磁盘都可以提供脑裂的仲裁服务,存储双活集群最多能够拥有3个物理quorum磁盘,也可以选择最多5个基于IP的quorum节点,这个基于IP的quorum节点可以是任何站点的任何服务器,或者公有云的一个虚拟机,在这个服务器内运行一个简单的仲裁JAVA程序即可。
所以可以看到,基于IP的仲裁服务其实大大提高了仲裁站点的选择空间,节省了企业双活建设成本,只要求IP可达,延时在80MS内即可。
存储双活方案
存储双活方案的意义及实现方式随着信息化时代的到来,云存储逐渐成为了企业和个人数据存储的首选方式。
然而,在云存储领域,保障数据的可用性和持续访问性却是面临的重要问题之一。
为了解决这个问题,应运而生。
本文将从的意义和实现方式两个角度展开论述。
意义:的意义在于提高数据存储的可用性和稳定性。
传统的数据存储方式存在单点故障的风险,一旦主节点出现故障,数据就可能无法访问,给用户带来数据丢失和访问中断的风险。
而通过部署多个节点,实现数据的冗余备份和负载均衡,可以避免单点故障的影响,提供更高的可用性和持续访问性。
实现方式:可以通过多种方式实现,以下主要介绍两种常用的实现方式。
方式一:异地多活模式异地多活模式是的一种常见实现方式。
它通过在不同地域或数据中心部署多个数据节点来实现数据的双活。
主节点和备用节点之间通过高速网络连接,实时同步数据,确保数据的一致性。
当主节点发生故障时,备用节点可以立即接管服务,保障数据的可用性。
此外,由于数据节点之间的负载均衡,可以提供更好的性能和用户体验。
方式二:本地多活模式本地多活模式是的另一种常见实现方式。
它通过在同一地域的不同设备或服务器上部署多个数据节点,实现数据的双活。
各数据节点之间通过专用网络连接,实时同步数据,保障数据的一致性。
在本地多活模式下,由于数据节点之间的距离较近,网络延迟较低,可以提供更好的读写性能和响应速度。
总结:通过部署多个数据节点,实现数据的冗余备份和负载均衡,提高了数据存储的可用性和持续访问性。
无论是异地多活模式还是本地多活模式,都可以根据需求选择适合的实现方式。
随着技术的不断进步和成本的降低,将在云存储领域发挥越来越重要的作用,帮助企业和个人保障数据的安全性和可靠性。
双活数据中心技术架构
➢ 基于存储自身卷镜像技术,HDS GAD 、 Huawei等
2. 存储网关虚拟化:在每个站点 新增存储虚拟化网关设备组成 跨站点集群,并对存储卷进重新 行封装,对外提供主机I/O访问。
3. 存储卷镜像技术:将两套磁盘阵列组成一个集群,两台存储上的 LUN被虚拟化为一个虚拟卷,主机写操作通过卷虚拟化镜像技术同 时写入两个数据中心的存储设备,保证站点之间数据实时同步。
存储层作为双活系统核心基础架构平台,
1. 卷管理软件虚拟化:通过安装在主机上卷管理软件的逻辑卷镜 像技术实现底层数据逻辑同步。
其双活技术在整个架构中起到关键作用,
目前基于存储层双活方案主要有下面三种:
➢ 基于远程卷管理软件的虚拟化,如: Symantec SF,IBM GPFS , Oracle ASM等
内存库集群部署主要有HA模式,双 活模式,线性拆分和分布式集群四种 模式。
HA模式 线性拆分模式
双活模式 分布式集群模式
数据层双活技术比较
物理库 内存库
技术种类
基于数据逻辑 复制软件
基于数据库自 身
HA模式 双活模式 线性拆分 分布式集群
技术特征
数据一致性
DSG、gg、 shareplex等
逻辑错误会导 致不一致,无
➢ 提供可靠性较高的二层网络(心跳网 络)
➢ 提供可靠性较高的共享存储(投票盘) ➢ 对底层链路和距离要求高:距离太远
会导致响应变慢,官方建议50KM之内。
流派2、存储网关虚拟化
实现原理:将存储虚拟化技术(EMC 的vplex)和Oracle的远程RAC技术结 合,实现跨中心的数据双活访问。
跨中心的两个存储通过网关设备虚 拟成一个对外访问,内部实时同步, 保持数据的一致性,平时两边主机 分别访问本地存储,故障情况下可 跨中心访问对方存储。
华为医院“一体化双活”存储系统解决方案
医院“一体化双活”存储系统解决方案医院信息化对存储挑战市县级、三乙医院的信息化系统往往比较完善,已经建成了HIS、PACS、LIS、RIS、手麻等多套信息化系统,涉及到病人挂号、取药、缴费、手术、住院、健康档案等各个环节,并且内容还在医疗健康范围内不断扩大。
近几年随着业务规模的不断扩大,信息化系统的压力急剧上升,原有的系统开始逐渐吃力,而新兴业务又在快速增长,严重的卡顿严重影响工作效率甚至影响医患之间的和谐关系,更多的设备增加了管理复杂度,尤其是数据的可靠性和业务的连续性随着设备的增加不断下降。
因此,需要对其信息化系统进行升级应对不断增长的业务需求,而作为多系统交互的数据共享平台,如何更加合理的整合,保证数据资产的可靠性、高效性、可用性、可管理性,尤其迫在眉睫。
而对于其核心存储平台,承载高性能系统(如HIS),大容量系统(如PACS)等核心业务的运行及存储,其建设需求应能够满足:1、统一:融合的存储平台,单台设备除了要能够满足业务系统对块数据(数据库等)高性能表现的诉求外,也要满足文件类处理的要求,充分满足块和文件两种类型应用数据的统一管理诉求,最大化减少架构复杂。
2、高可靠:部件、设备、系统级可靠,能够在部件故障、设备故障甚至机房故障时,都不会引起关键信息化系统(如HIS、PACS)的业务停机和数据丢失。
3、高性能:对于HIS核心系统,其业务的时延往往成为影响病人体验的一个重要指标。
时延大,病人需要花更多的时间排队等待,医生需要花更多的时间开具处方,这些不仅会影响工作效率,而且会引起矛盾。
4、领先性:新设备无论从架构、系统设计、硬件接口还是软件功能方面均具有前瞻性,保证设备的使用周期内能够满足医院未来的发展需要,同时满足扩容和性能升级等简单的需求。
5、高效率利旧:这些医院往往已经建成信息化系统,对原有系统的平滑改造、数据的平滑迁移是采用新存储时必须充分考虑的要素,要做到新设备上线对业务影响最小。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
技术方案建议书目录第1章需求分析 (3)第2章总体技术解决方案 (5)2.1方案拓扑示意图及简要说明 (5)2.2方案优势简要说明 (6)2.3VSP G1000的高性能、高可靠性、高扩展能力 (7)2.3.1 综合说明 (7)2.3.2 高可靠性 (9)2.3.3 高性能 (11)2.3.4 高扩展性 (12)2.4双活存储集群的技术优势 (13)2.4.1 VSP G1000的GAD双活存储集群 (13)2.4.2 GAD双活存储集群的基础-VSM (14)2.4.3 GAD与其他厂商双活集群技术的对比 (15)2.5现有核心SAN存储与新购存储的无缝集成 (17)2.6关键线路连接示意图 (17)2.7存储虚拟化整合规划 (18)2.8远程容灾规划 (19)2.8.1 选用HUR异步复制技术 (19)2.8.2 HUR异步复制软件的工作原理 (20)2.8.3 HUR异步复制软件与友商的技术对比说明 (22)第3章数据迁移解决方案 (23)3.1数据迁移概述 (23)3.1.1 迁移目标 (23)3.1.2 数据迁移相关因素 (23)3.2数据迁移方法论 (24)3.2.1 迁移评估设计阶段 (24)3.2.2 迁移实施阶段 (26)3.3数据迁移技术的选择 (27)3.3.1 可选的数据迁移技术 (27)3.3.2 推荐数据迁移方案 (29)第1章需求分析根据现状分析,本次项目的核心建设要点有以下4点:1)高性能,高扩展性,且可保证数据以及应用安全的存储设备鉴于XXXX的存储使用情况和未来的业务发展,需要高性能,高扩展性(如存储产品的容量与端口等),高可靠性的企业级高端存储设备作为南方中心整体存储方案的支撑。
2)需要单一存储设备故障不影响业务生产,即双活存储集群技术XXXX对存储的要求不仅仅是能保证单套存储设备的可靠性,而且要保证在极端情况下,单一存储设备故障时,不会影响关键业务的生产,此外,即使在单套存储设备故障时,另一节点的双活存储的性能也需能够高效支撑业务,因此双活存储需采用相同的配置,以保证在单套存储出现灾难时,另一套存储可以以同样的性能支撑南方中心的业务。
双活存储集群在写数据时是需要两套存储均确认写入成功才会执行下一写操作的,因此必须考虑双活存储集群技术对业务性能的影响。
随着两套存储之间距离的增大,数据写入延时越长,因此,建议双活存储集群应在同一个数据中心中以保证业务性能。
3)必须满足长期规划,以实现双活基础上的远程容灾保护即使已经实现了双活存储集群,但由于两个存储在一个机房楼里,仍然无法避免整个数据中心灾难所带来的影响。
因此,还必须在双活的基础上实现远程数据容灾保护的功能,以保证在灾难发生时仍有可用数据快速恢复业务生产。
4)数据迁移由于南方中心的核心业务系统是从北京中心拆分出来的,需要将北京中心的部分现有数据迁移到南方中心。
因此,本项目必须提供一套可行的、完善的、风险系数最低的数据迁移方案,为南方中心业务系统的部署和上线运行打好基础。
根据分析,本项目需要实施数据迁移的IT环境中具有如下特点:●操作系统多样性:整体环境中主机包括AIX、Windows、Linux、ESX等各种操作系统,服务器涉及多个品牌;●数据格式的多样性:数据的存放主要以Oracle数据库为主,有RAC和主备等多种形式的集群,另外还有主机文件系统,NAS文件系统等;●数据量大:数十TB规模的数据需要迁移到南方中心新购存储;●环境限制:距离远、网络带宽有限;这些特点都表明了数据迁移的复杂性,也对数据迁移的方法提出了挑战。
因此数据迁移方案的选择和设计重点考虑以下要点:●迁移方案应重点考虑数据初始化,即如何成功、快速的将数据从北京中心迁移到南方中心;●迁移方案重点考虑与应用、操作系统、数据库的无关性,尽量通过更底层的技术,如备份恢复、数据库复制、存储复制等,这样可有效降低数据迁移的复杂性;总之,数据迁移应考虑采用一个有效的方法来面向不同数据库、操作系统、服务器的各种应用的迁移,且迁移过程尽量缩短数据初始化的时间,完成南方中心的快速部署和上线运行。
第2章总体技术解决方案2.1 方案拓扑示意图及简要说明在明确项目建设目标,经过调研和分析,建议方案设计如下图所示:上图中紫色字体的部分是本次项目投标提供的SAN网络及存储设备。
方案说明:●SAN网络层在SAN网络层面,方案采用两套Brocade 6520交换机作为SAN交换网络,形成双冗余连接,避免因单台交换机故障导致的存储业务中断。
由于南方中心与北京中心之间的远程连接为IP网络,因此建议用户考虑增加FC/IP路由设备,用以实现南方中心与北京中心之间的远程FC SAN路由连接,为基于存储的远程容灾复制提供链路支持。
(注:该设备未包含在本方案存储设备供货清单中)●存储层方案采用两套HDS最高端的存储设备VSP G1000为南方中心的业务系统提供高性能、高可靠的支撑服务,且采用安全级别最高的“双活存储集群”来实现两套VSP G1000的设备级冗余故障切换,单套VSP G1000停机不会影响业务的运行,无须任何人为干预,业务系统能够连续不停机的对外服务。
此外,方案中还采用一套HDS中端存储设备HUS130,既可以为网管、监控等业务系统提供支撑服务,也可当作VSP G1000双活存储集群的仲裁节点使用。
●主机层考虑到系统可靠性,服务器应安装两块独立的HBA卡,分别连接到两台Brocade 6520交换机,形成冗余链路。
HDS VSP G1000自带HDLM动态多路径管理软件,可以安装在服务器操作系统中,用于管理路径负载均衡和故障路径自动切换。
2.2 方案优势简要说明1)高可靠性、高性能、高扩展性:●VSP G1000高端企业级存储,采用多控制器架构冗余设计,具有极高的可靠性。
●与此同时,VSP G1000的性能也非常出色,其上一代产品VSP公开发布的SPC-1测试结果为60万IOPS,而VSP G1000预估IOPS可以达到200万以上。
●扩展性方面:VSP G1000最大支持2304块磁盘,192个前端口,2TB缓存,能够充分满足未来的业务发展需求。
2)双活存储集群方案●由两套VSP G1000存储共同提供业务支撑服务,在任意一套存储出现严重故障(如断电等)无法工作时,业务系统能够继续运行,无须任何人工干预操作。
在一套存储出现严重灾难时,单套存储仍可保证的业务的高效运行,实现RTO=0,RPO≈0的高可靠业务连续性方案和数据安全方案。
●两套存储的配置完全相同,在一套存储故障时,剩余的单套存储仍可以提供相同的业务处理速度,不会降低服务水平。
3)可实现双活基础上的远程容灾保护●VSP G1000能够与北京中心实现远程容灾复制,从而实现北京中心与南方中心之间的数据互备容灾。
虽然本项目选择的是利用数据库复制软件实现两中心间的容灾,但根据以往的项目经验,我们仍然建议使用存储级容灾复制功能,对Oracle数据库的Archive Log再做一份副本数据,作为数据库复制软件的补充手段和备用手段,为两中心间的容灾方案提供更全面的技术支撑。
4)可行的、完善的数据迁移方案数据迁移是一个极其复杂的系统问题。
如何选择一种可行的、完善的数据迁移方案,应重点从以下几个方面考虑:●容灾复制技术优先✓本项目的建设目的就是为了实现南方中心与北京中心之间的远程容灾,因此建议首选容灾复制技术进行数据迁移。
只有这样,数据迁移到南方中心并启动业务生产之后,才能够继续保持与北京中心之间的数据容灾复制关系。
✓其他数据(文件系统、NAS)等,可以考虑采用NFS、FTP等方式迁移到南方中心。
在具备条件的情况下(可实现两中心间的FC/IP路由通讯),也可以考虑使用存储系统的复制功能完成两中心间的数据迁移。
●电子传输比介质传送更可靠✓无论哪种复制技术,都具有非常完善的数据传输机制与校验机制,并且迁移到南方中心的数据可以与北京中心直接建立容灾复制关系。
如果带宽条件有限,预估传输时间较长,建议考虑临时增容带宽,以提高初始化复制的处理速度。
✓介质传输,无论是传送磁盘、磁带、甚至存储设备,都存在极高的数据损坏风险,并且时效性很差,需要再次通过数据复制进行数据更新,过程非常复杂。
2.3 VSP G1000的高性能、高可靠性、高扩展能力2.3.1 综合说明权威机构Gartner于2014年11月对业界主流高端存储进行了全方位的综合评测,评测项目众多,评分标准细致且科学。
最终排名结果显示:VSP G1000排名第一(并列第一的HP XP7是VSP G1000的OEM型号)。
Gartner官方网站链接如下:/technology/reprints.do?id=1-1RO1Z8Z&ct=140310&st=sb 以下图片均为Gartner官方网站的截图:上图是2014年3月综合排名情况(VSP为VSP G1000的上一代产品),VSP (P9000为VSP的OEM产品)综合排名第一。
评测内容包括:管理性、可靠性、性能、快照复制、扩展性、环保特性、多租户与安全、存储效率。
上图是2014年11月的综合排名情况,VSP G1000(XP7为VSP G1000的OEM产品)再次综合排名第一。
2014年11月OLTP典型数据库应用评测,VSP G1000排名第一。
2014年11月OLAP典型数据库应用评测,VSP G1000排名第一。
2.3.2 高可靠性整体的存储系统平台分为三个层次,主机层、网络层和存储层。
主机层:在数据中心的生产区和交换区的业务系统中,主机主要进行信息处理和数据库运行,在主机端安装HBA卡用于建立数据访问通道。
由于主业务系统是典型的OLTP应用,所以应用对数据访问性能的要求非常高,为了满足这一要求,主机端需要多块HBA卡,提供多条数据通道,通过安装HDLM数据通道管理软件,可以提供多通道之间的流量负载均衡,确保高性能的数据访问。
另一方面,对于生产系统这样关键的系统,链路的安全性需要得到保证,HDLM同样可以提供数据通道之间的失败切换功能。
网络层:SAN网络中网络层是非常关键的一个部分,它负责将主机和存储系统连接在一起,并且提供一个高灵活性、高扩展性的环境,以适应业务系统不断发展带来的主机和存储系统的扩展。
在SAN网络设计中,我们采用冗余的网络设计,按照本项目的要求,我们全新配置2台Brocade6520交换机构成冗余FABRIC,为主机和存储系统提供冗余的、可持续发展的连接路径。
存储层:存储层或者说整个SAN网络存储系统的核心设备是磁盘阵列,在数据中心存储系统中,我们建议配置两台高端存储设备做同步实现“0”数据丢失的保护;建议采用高性能、高可扩展性、功能强大的磁盘阵列系统――VSP G1000通用存储平台。