华为HyperMetroSAN与NAS一体化双活处理办法

合集下载

存储双活各大厂商实现解析

存储双活各大厂商实现解析
StorageB
SVC-ESC IO流
读IO,读本地站点A主机向站点ASVC发起读请求SVC读本地缓存,如中有刚返回主机,如无,读本地存储写IO主机向SVC写I/O请求,同站点的SVC节点将写I/O写入缓存,同时将写I/O同步至另一站点的SVC节点另一站点的SVC节点将写I/O写入缓存,并回复响应两个站点的SVC节点陆续将缓存写入各自站点的存储当中仲裁支持IP,磁盘模式,防止脑裂
I/O GROUP架构当一个IOGROUP故障,虚拟卷不能被 其它 IOGROUP自动接管一般采用温备方式手动替换nodeCache当一个node失效后,该IOG catche 失效,性能有所下降
SVC-ESC
Node1
Node2
Node3
Node4
Node5
Node6
Node7
Node8
StorageA
VPLEX构建双活数据中心
仲裁第三站点Witness 通过IP 方式进行仲裁,防止脑裂
多活架构多活架构多控制器可并发访问制定虚拟卷当一个控制器故障时,本地其它控制器接管
IO流本地读取,双向直写写IO到存储层cache,写完成
链路FC链路
分布式缓存一致性
基于目录的分布式缓存一致性可跨所有引擎高效维护缓存一致性
华为 HyperMetro写请求流程(FS)
IO流主机下发写请求到active租户的文件系统。文件系统将写请求下发到HyperMetro管理模块本端存储系统记录写请求的LOG信息。执行双写:双活管理模块同时将该写I/O写入本端Cache和远端Cache。两端Cache向双活管理模块返回写I/O结果。管理模块返回写请求结果到文件系统存储系统返回写结果给主机判断双写是否成功 1)都写成功:清楚log 2) 如果 有一端失败,log转成DCL,记录本地Lun和远端lun的数据差异

华为HyperMetro SAN与NAS一体化双活解决方案

华为HyperMetro SAN与NAS一体化双活解决方案

统计显示:
• 97%的局部故障会导致企业 对外业务运行中断; • 3%的全局故障引起企业数据 丢失,可能导致企业消亡;
区域性灾难
自然灾害 恐怖袭击/战争
数据中心故障

单次发生的损失

如何有效应对故障和灾难对业务连续性带来的挑战?---建设容灾系统
4
IT系统建设双活容灾势在必行
方案优势 方案不足 方案不足
应用集群
主 机
• 系统正常情况下,任意应用IO数据下发,都要同时写到两台阵
列才返回主机,确保两台阵列数据实时一致;
跨站点双活AA集群
单存储不可用时,记录数据差异
• 其中一台存储不可用时,仅写正常存储,同时数据变化记录到 DCL(Data Change Log)空间,待阵列修复好后,通过DCL
双活分布式锁互斥
• NetApp MetroCluster (SAN+NAS) • IBM HyperSwap 特点:非网关/数据级镜像/紧耦合
控制器 控制器
特点:非网关/设备级隔离/松耦合
NAS网关
• HDS GAD+HNAS 特点:非网关SAN+NAS网关/设备级隔离/松耦合
• Huawei HyperMetro(SAN+NAS) 特点:非网关/设备级隔离/松耦合/一体化
12
业界存储层双活方案解析
网关 控制器 网关 控制器 控制器 控制器 控制器 控制器
• IBM SVC • EMC VPLEX 特点:网关/数据级镜像/紧耦合
NAS网关 控制器 控制器
• • • •
HDS GAD EMC VMAX3 HPE PeerPersistence DELL Live Volume

OceanStor混合闪存存储系统介绍

OceanStor混合闪存存储系统介绍

云计算
稳定性和性能的诉求永无止境
社交
移动
大数据
金融
运营商
心稳定性和性能 需持续提升以适应未来云架构
44 ZB预计2020年数据量
目 录
企业对IT系统的关键诉求
OceanStor V5,全新一代混合闪存系统
应用实践
1
23
华为OceanStor V5,全新一代融合闪存存储
CORE
协议解析
I/O读写
数据刷盘
专用
CORE
数据交换通道
Cache
Cache自适应算法智能识别workload业务特征,提供与匹配的Cache 预取、淘汰机制,Cache命中率提升100%,确保业 务快速处理
IO智能调度数据读写I/O永远第一优先级响应,其他I/O等数 据读写I/O完成后再重新启动,保障数据读写I/O 时延最低
多数据中心的融合
多数据中心的融合,伴随数据中心平滑演进
DC
双活DC1
3DC
DC
DC1
DC2
DC
业务不动,保护级别平滑升级
64:1集中灾备DC DC1
DC2
DC
DC
DC

多数据中心的融合
多数据中心融合,为用户提供多种级别的业务连续性保障从双活平滑升级到3DC,提供两地三中心最高级别的业务连续性从复制平滑升级到3DC,提供数据三重保险,保证数据永不丢失从3DC平滑升级到到多个DC,提供数据集中容灾与保障
HyperMetro多数据中心融合免网关一体化双活双活平滑升级到3DC
9
业界最全的闪存产品
5PB
15PB
45PB
25PB 35PB
0
All Flash Arrays

基于华为高端NAS存储双活的POC测试

基于华为高端NAS存储双活的POC测试

基于华为高端NAS存储双活的POC测试【摘要】近年来,银行业积累了越来越多的非结构化数据,在业务场景和存储系统建设上都在不断进行优化。

本文以作者所在企业的业务需求以及存储系统优化实际出发,在高端NAS存储双活系统上线前进行了深度POC测试。

从双活系统组网、架构健壮性以及业务系统适配上进行了多维度的测试,并形成了本POC测试报告,最终作为行里高端NAS双活系统规划和建设的依据。

1. 项目背景我行自2018年开始建设NAS存储资源池,从而正式开启了业务数据的存储架构优化之路,对于文件类的数据由先前的GPFS向NAS存储逐步迁移转型。

此外,结合存储系统分级体系建设以及业务系统的分级标准,在NAS存储资源池建设上同样也进行了分级存储建设。

为此,近两年来随着新核心系统的建设我行开始调研并构建高端NAS存储资源池。

同时,在同城双中心构建高端NAS存储的双活架构以满足我行新核心、重要及重要支撑系统的文件共享需求及其文件的高可用需求。

然而,高端NAS双活在我行首次实施,无论是该技术本身在我行网络架构中的适配性,还是在业务场景中的匹配上,甚至是存储运维人员对于这一新技术的全面掌握上都存在不确定性,甚至是盲点。

因此,运维部门作为该项目建设的牵头部门,开展了深度的高端NAS双活POC测试。

2. 测试目的和测试思路本项目计划通过深度的POC测试对高端NAS双活系统在应用场景、安全性以及功能性上进行充分验证,然后形成详尽的POC测试报告,最终作为高端NAS双活系统的规划和建设依据。

测试目的主要包括以下方面:第一,验证高端NAS双活架构在我行分区域建设的网络架构中的组网可行性。

第二,验证高端NAS双活架构在各种单点和双点故障场景中的自身架构健壮性。

第三,验证基于细粒度的单个业务系统的计划性站点切换演练的易用性和安全性。

对于POC测试原则最重要的是真实模拟或尽量贴近生产实际,因为在客户真实环境中的POC测试是最有说服力的,尤其是网络环境的真实性。

华为医院“一体化双活”存储系统解决方案

华为医院“一体化双活”存储系统解决方案

医院“一体化双活”存储系统解决方案医院信息化对存储挑战市县级、三乙医院的信息化系统往往比较完善,已经建成了HIS、PACS、LIS、RIS、手麻等多套信息化系统,涉及到病人挂号、取药、缴费、手术、住院、健康档案等各个环节,并且内容还在医疗健康范围内不断扩大。

近几年随着业务规模的不断扩大,信息化系统的压力急剧上升,原有的系统开始逐渐吃力,而新兴业务又在快速增长,严重的卡顿严重影响工作效率甚至影响医患之间的和谐关系,更多的设备增加了管理复杂度,尤其是数据的可靠性和业务的连续性随着设备的增加不断下降。

因此,需要对其信息化系统进行升级应对不断增长的业务需求,而作为多系统交互的数据共享平台,如何更加合理的整合,保证数据资产的可靠性、高效性、可用性、可管理性,尤其迫在眉睫。

而对于其核心存储平台,承载高性能系统(如HIS),大容量系统(如PACS)等核心业务的运行及存储,其建设需求应能够满足:1、统一:融合的存储平台,单台设备除了要能够满足业务系统对块数据(数据库等)高性能表现的诉求外,也要满足文件类处理的要求,充分满足块和文件两种类型应用数据的统一管理诉求,最大化减少架构复杂。

2、高可靠:部件、设备、系统级可靠,能够在部件故障、设备故障甚至机房故障时,都不会引起关键信息化系统(如HIS、PACS)的业务停机和数据丢失。

3、高性能:对于HIS核心系统,其业务的时延往往成为影响病人体验的一个重要指标。

时延大,病人需要花更多的时间排队等待,医生需要花更多的时间开具处方,这些不仅会影响工作效率,而且会引起矛盾。

4、领先性:新设备无论从架构、系统设计、硬件接口还是软件功能方面均具有前瞻性,保证设备的使用周期内能够满足医院未来的发展需要,同时满足扩容和性能升级等简单的需求。

5、高效率利旧:这些医院往往已经建成信息化系统,对原有系统的平滑改造、数据的平滑迁移是采用新存储时必须充分考虑的要素,要做到新设备上线对业务影响最小。

HCS-Solution-IT-华为阵列双活解决方案-02配置报价指导

HCS-Solution-IT-华为阵列双活解决方案-02配置报价指导

控制模块
双控制器 自动变频,降低能耗 自带风扇模块(即风扇集成在控制模块中,但可以独立维护)
管理模块
1+1冗余 支持热插拔 支持多控Scale-out互联,实现心跳
电源模块
1+1冗余 转换效率高达94% 支持240V高压直流
接口模块
16个接口模块槽位,支持热插拔 接口类型:8Gb/16Gb FC、GE、10GE TOE、 10GE电口、 10GE FCoE、12Gb SAS; V3R2,V3R3还支持56Gb IB、 SmartIO卡,可配置重删压缩加速卡
选择产品型号
选择对应产品型号(5300 V3、5500 V3、5600 V3、5800 V3、6800 V3)
选择SAN or SAN+NAS一体化
*V3R1版本供选择SAN特性, SAN与NAS一体化特性采用V3R2报价
2,4,8控
选择控制器数
5300 V3、5500 V3、5600 V3、5800 V3 6800 V3
6800V3
6U独立机头 3200 8 256GB / 512GB/1TB
硬件规格 控制框形态 支持磁盘数 最大控制器数 Cache容量配置(双 控) 最大前端主机端口数 (双控) 软件规格
2U盘控一体 3U独立机头 750 1000 8 8 48GB /96GB 64GB / 32GB/64GB /128GB 128GB
HyperMetro阵列双活
SmartQos 智能服务质量控制 SmartDedupe & SmartCompression
★蓝色粗体为SAN与NAS都支持的特性
智能
SystemReporter 系统报表软件 Smartmotion 智能数据迅移

华为存储双活规划设计指南


⑤ Transfer Ready
RTT-1
⑧ Status Good
RTT-2
站点 A
站点 B
双活通数用据方中案:心写定IO义在传输的双端要经历“Write
Command”和“Data Transfer两次交互
100KM传输链路有2次RTT(往返延时)
FastWrite
主机
OceanStor V3 存储
优选阵列模式
优选阵列模式(适用于同城双活场景)
该模式可大幅减少跨站点访问,从而减少传输时 延 远距离部署场景 UltraPath上指定站点A主机优先访问站点A阵列, 指定站点B主机优先访问站点B阵列。IO只会在优先 阵列下发
方案扩展性设计
站点A
主备容灾解决方案
站点B
站点A
架构升级 业务不断
双活数据中心解决方案
OceanStor V3 存储
主机
100KM
① Command ② Ready ③ Data Transfer
8G FC/10GE
⑤ Status Good
RTT-1
站点A
站点B
FastWrite:通过私有协议优化,将“写命令”和“写 数据”合并为一次发送,跨站点写IO交互次数减少一 半
100KM传输链路仅1次RTT,整体业务性能提升30%
容量规划
现网需要实施双活 的生产容量
判断数据中心1是否 需要扩容
确定数据中心2存储 规划
收集当前用户需要实 施双活的所有LUN的 规划和配置信息,比 如LUN容量和RAID配 置。
根据客户当前容量使用 情况以及业务发展要求, 为客户提供建议,保证 扩容后存储满足未来3-5 年数据增量。如果为接 管友商异构存储,通常 有一定使用年限,建议 客户在华为存储上扩容。

阵列双活容灾解决方案


按业务粒度仲裁— 一致性组仲裁
WebSite OA CRM ERP
WebSite OA CRM ERP
WebSite OA CRM ERP
WebSite OA CRM ERP
通用方案
站点A
站点B
服务器 优先站点
服务器
按业务粒度仲裁
站点A
站点B
服务器
服务器
ERP一致性组 CRM一致性组 OA 一致性组 We b 一致性组
可视化
全局拓扑、集中告警 自动化,一键式容灾演练、恢复
本地高可用解决方案
方案架构
V
V
V
M
M
M
V
V
V
M
M
M
Other
SAN
Hu a we i
亮点
业务级高可靠
业务0中断 数据0丢失
课程目录
为什么要做容灾? 华为容灾解决方案OverVie w 华为阵列双活解决方案解析 华为阵列双活竞争分析 案 例分享
华为容灾解决方案全景图
本地高可用方案
本地高可用解决方案
同城容灾方案
双活数据中心解决方案 主备容灾解决方案
异地容灾方案
两地三中心容灾解决方案 主备容灾解决方案
≤1 0 0 km
>1 0 0 km
本地生产中心
同城容灾中心
异地容灾中心
双活数据中心解决方案
方案架构
生产中心1
VVV M MM
VVV MMM
HyperMetro 仲裁设计-仲裁部署方案
仲裁部署
有第三方仲裁站点(推荐)
存储资源池
• 仲裁设备部署在第三方站点,与双活的两个数 据中心处于不同的故障域

双活解决方案

2.网络设计
双活数据中心间通过专用网络连接,采用多路径、高带宽的网络架构,确保网络通信的稳定性和低延迟。网络设计包括:
-双向冗余网络连接,避免单点故障。
-虚拟路由器冗余协议(VRRP)实现网络设备的冗余。
-分布式拒绝服务(DDoS)防御措施,确保网络安全性。
3.存储设计
存储系统采用分布式存储技术,实现数据的冗余存储和实时复制。关键特性包括:
2.网络设计
双活数据中心之间采用高速专线连接,确保网络带宽满足业务需求。同时,采用虚拟私有云(VPC)技术,实现两个数据中心之间的内网互通。
3.存储设计
双活数据中心采用共享存储架构,通过存储复制技术(如SRDF、HyperMetro等)实现数据实时同步。此外,采用存储虚拟化技术,提高存储资源利用率,降低运维复杂度。
数据库系统采用双活配置,通过数据库镜像或复制技术,实现数据的实时同步。设计重点包括:
-数据库事务日志同步,保证数据一致性。
-自动故障恢复机制,减少人工干预。
6.应用设计
应用层采用微服务架构,服务间通过服务总线进行通信,提高系统的灵活性和可扩展性。设计要点包括:
-服务冗余部署,确保服务的高可用性。
-服务注册与发现机制,实现服务动态路由。
四、实施方案
1.硬件设备选型与采购:根据业务需求,选择合适的硬件设备,包括服务器、存储、网络设备等。
2.软件系统部署:在两个数据中心部署相同的软件系统,包括操作系统、数据库、中间件、应用系统等。
3.数据同步:配置存储复制和数据库镜像,实现双活数据中心之间的数据实时同步。
4.网络配置:配置双活数据中心之间的网络连接,确保内网互通,并设置防火墙、负载均衡等安全策略。
2.数据一致性需求:要求双活数据中心之间的数据实时同步,保证数据一致性和完整性。

华为SAN NAS一体化阵列双活解决方案

特点:非网关/设备级隔离/松耦合
• NetApp MetroCluster (SAN+NAS)
• IBM HyperSwap
特点:非网关/数据级镜像/紧耦合
NAS网关
控制器
控制器
NAS网关
控制器
控制器
• HDS GAD+HNAS 特点:非网关SAN+NAS网关/设备级隔离/松耦合
13
• Huawei HyperMetro(SAN+NAS) 特点:非网关/设备级隔离/松耦合/一体化
Fusion Sphere
单数据中心
1
2
3
5
站点A
站点B
主备数据中心
4
5
6
站点A
站点B
双活数据中心
容灾等级
7
目录
1 业务连续性挑战 2 典型业务连续性需求解析 3 业界阵列双活技术概览 4 华为SAN/NAS一体化阵列双活解决方案 5 成功故事
6
医院业务:结构化与非结构化数据并
华为SAN NAS一体化阵 列双活解决方案
目录
1 业务连续性挑战 2 典型业务连续性需求解析 3 业界阵列双活技术概览 4 华为SAN/NAS一体化阵列双活解决方案 5 成功故事
2
IT系统业务连续的重要性
火灾
设备故障
停电
病毒爆发
3
每 小 时 停 机 损 失





9

648
280
200
160
63
数据库集群
XXX 的数据
个人信息(姓名,年龄,身份证 号,卡号….)
图片信息(卷宗、笔录扫描 件、录音与.)
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

9
目录
1 业务连续性挑战 2 典型业务连续性需求解析 3 业界存储双活技术概览 4 华为一体化双活解决方案 5 成功故事
10
业界双活数据中心框架介绍
传输层 网络层
应用层 计算层
Fusion Sphere
存储层
数据中心A
传输
冗余可靠性保护、最小传输时延 ≤100km 裸光纤
网络层
高可靠、优化的二层互联 最优的访问路径
华为HyperMetro SAN与NAS一体化双活解决方案
目录
1 业务连续性挑战 2 典型业务连续性需求解析 3 业界存储双活技术概览 4 华为一体化双活解决方案 5 成功故事
2
IT系统业务连续的重要性
火灾
设备故障
停电
病毒爆发
3
每 小 时 停 机 损 失





9

648
280
200
160
63
Fusion Sphere
单数据中心
1
2
3
5
站点A
站点B
主备数据中心
4
5
6
站点A
站点B
双活数据中心
容灾等级
7
目录
1 业务连续性挑战 2 典型业务连续性需求解析 3 业界存储双活技术概览 4 华为一体化双活解决方案 5 成功故事
6
医院业务:结构化与非结构化数据并存
HIS
PACS
LIS
门诊 结束
病人基本信息 挂号
QS S1
故障场景:S1所在阵列与仲裁服务器的链路中断 处理结果:业务无影响
S2
QS S1
故障场景:S2所在阵列与仲裁服务器的链路中断 处理结果:业务无影响
S2
注: QS为仲裁服务器,S1为优先仲裁方
22
一体化定义
实现原理
创新设计
组合故障场景
QS
S1
S2
QS
S1
S2
QS
S1
S2
QS
S1
S2
QS
S1
S2
区域性灾难

建筑火灾
自然灾害

数据中心故障
恐怖袭击/战争
统计显示:
• 97%的局部故障会导致企业 对外业务运行中断;
• 3%的全局故障引起企业数据 丢失,可能导致企业消亡;

单次发生的损失

如何有效应对故障和灾难对业务连续性带来的挑战?---建设容灾系统
4
IT系统建设双活容灾势在必行
方案不足
• 数据丢失,不可挽回 • 经济损失,名誉损失 • 无冗余网络,恢复能力弱
仲裁
15
一体化双活:一台设备
SAN与NAS并行架构图
iSCSI/FC/FCOE
NFS/CIFS/FTP/HTTP
Block Service
File Service
Storage POOL
RAID 2.0+
一体化定义
实现原理
创新设计
免网关
块和文件一体,无需额外购买NAS网关,购置 成本降低15%
并行架构
Host Storage
DCL
LOG

① ② ⑥

HyperMetro management module
③④
Local cache
③④
Remote cache
Local storage array
Same-city network between data centers
Local LUN
DWDM
110
媒体 医疗 零售业 制造业 电信 能源 金融
来源: Network Computing, the Meta Group and Contingency Planning Research
业务连续性容灾系统建设的必要性
设备故障

数据损坏
磁盘故障

应用中断
组件故障


网络问题
发 生 频
电源故障
空调故障
单存储不可用时,记录数据差异
• 其中一台存储不可用时,仅写正常存储,同时数据变化记录到 DCL(Data Change Log)空间,待阵列修复好后,通过DCL 记录的信息,将数据增量写入存储;
分布式锁机制(DLM)
• 通过分布式锁机制,确保主机对同一存储地址的数据访问时, 由其中一台写入,确保数据一致性。

DCL
LOG




HyperMetro management module

④⑤
Primary Cache
Secondary Cache
Local storage array
Disk
IP/FC
Disk
Remote storage array Same-city network between data centers
• NetApp MetroCluster (SAN+NAS)
• IBM HyperSwap
特点:非网关/数据级镜像/紧耦合
NAS网关
控制器
控制器
NAS网关
控制器
控制器
• HDS GAD+HNAS 特点:非网关SAN+NAS网关/设备级隔离/松耦合
13
• Huawei HyperMetro(SAN+NAS) 特点:非网关/设备级隔离/松耦合/一体化
应用层
Oracle Database以及 Weblogic、apache等应用
计算层
虚拟化跨DC高可用、负载均衡、 迁移调度
存储层
双活访问、数据零丢失
11
Fusion Sphere
数据中心B
业界存储层双活技术演进
SAN双活
阵列AA双活 网关AA双活
NAS双活
阵列AP双活
阵列AP双活 阵列转发双活
网关AP双活
故障场景:QS故障后、S2再故障 处理结果:QS故障后,S1继续提供服务,并自动进入静 态优先模式;S2再故障,S1继续提供服务
故障场景:QS故障后,S1再发生整体故障 处理结果:QS故障后,S1继续提供服务,并自动进入静 态优先模式;S1再故障,S2失效,业务中断
故障场景:QS故障后,阵列间链路再中断 处理结果:QS故障后,S1继续提供服务,并自动进入静 态优先模式;阵列间链路再故障,S1提供服务
Remote storage
array
20
一体化定义
实现原理
创新设计
数据写实时镜像
• 主机下发写请求到active租户的文件系统。 • 文件系统将写请求写到HyperMetro管理模块。 • 本端存储系统记录写请求的LOG信息。 • 执行双写:HyperMetro管理模块同时将该写请求写入两套存储
Cache。 • 两端Cache向HyperMetro管理模块返回写请求结果。 • HyperMetro管理模块返回写请求结果到文件系统。 • 存储系统将写I/O结果返回给主机。 • 判断双写是否成功。
双重模式
支持静态优先与第三方在仲裁模式,最大限度保障方案 高可用
业务粒度
按业务粒度仲裁,业务均衡分布,站点间链路故障时就 近访问
一体化双活:一种网络
站点A
站点B
主机应 用集群
IP/FC
FC/IP
IP/FC
OceanStor V3
IP
IP
仲裁服务器
18
OceanStor V3
一体化定义
实现原理
创新设计
Fusion Sphere
方案不足
• IT、网络资源利用率低,TCO高 • 手动切换,网络、业务中断时间长 • 组件多,故障恢复过程复杂,运维成本高 • 故障发生时,备份网络、数据是否可用?
Fusion Sphere
方案优势
• 数据、业务、网络连续性 • 双中心资源利用率高 • 业务、网络访问负载分担 • 端到端实时可用,自动容灾切换
Remote LUN
Remote storage
array
• 主机下发写I/O到双活管理模块。 • 系统记录LOG。 • 执行双写:双活管理模块同时将该写I/O写入本端Cache和
远端Cache。 • 本端Cache和远端Cache向双活管理模块返回写I/O结果。 • 双写结果处理:等待两端Cache的写处理结果都返回,才向
数据库集群
XXX 的数据
个人信息(姓名,年龄,身份证 号,卡号….)
图片信息(卷宗、笔录扫描 件、录音与.)
应用需求:A-A集群
• 数据库与文件业务提供实时在线访问
LUN
结构化数据
FileSystem
非结构化数据
站点A
SAN双活 NAS双活
站点B
存储需求:双活容灾
• SAN与NAS提供数据双活容灾,支撑多 部门实时访问
12
SAN与NAS 一体化双活
业界存储层双活方案解析
网关 控制器
网关 控制器
控制器
控制器
控制器
控制器
• IBM SVC • EMC VPLEX
特点:网关/数据级镜像/紧耦合
• HDS GAD • EMC VMAX3 • HPE PeerPersistence • DELL Live Volume
特点:非网关/设备级隔离/松耦合
分诊、急诊 取药
医生 下医嘱 检查
化验
执行医嘱
入院
缴费 出院
ICU探视
护理
输出结果
医生查房
手术/示教
医生
相关文档
最新文档