华为OceanStor_5300_V3&5500_V3&5600_V3&5800_V3中端存储系统技术白皮书

资料编码

华为OceanStor 5300 V3 &5500

V3&5600 V3&5800 V3存储系统技

术白皮书

文档版本

V1.1 发布日期 2014-07

华为技术有限公司

版权所有? 华为技术有限公司2014。保留一切权利。

非经本公司书面许可,任何单位和个人不得擅自摘抄、复制本文档内容的部分或全部,并不得以任何形式传播。

商标声明

和其他华为商标均为华为技术有限公司的商标。

本文档提及的其他所有商标或注册商标,由各自的所有人拥有。

注意

您购买的产品、服务或特性等应受华为公司商业合同和条款的约束,本文档中描述的全部或部分产品、服务或特性可能不在您的购买或使用范围之内。除非合同另有约定,华为公司对本文档内容不做任何明示或默示的声明或保证。

由于产品版本升级或其他原因,本文档内容会不定期进行更新。除非另有约定,本文档仅作为使用指导,本文档中的所有陈述、信息和建议不构成任何明示或暗示的担保。

华为技术有限公司

地址:深圳市龙岗区坂田华为总部办公楼邮编:518129

网址:https://www.360docs.net/doc/2b8894888.html,

客户服务邮箱:support@https://www.360docs.net/doc/2b8894888.html,

客户服务电话:0755-******** 4008302118

客户服务传真:0755-********

目录

1 执行摘要/Executive Summary (4)

2 简介/Introduction (5)

3 统一融合方案 (6)

3.1 OceanStorV3统一存储系列介绍 (7)

3.2 OceanStor V3融合平台架构 (8)

3.2.1 硬件中低端融合架构 (8)

3.2.2 NAS和SAN融合架构 (9)

3.2.3 RAID2.0+技术 (10)

3.2.4 Cache&SmartCache (14)

3.2.5 在线数据重删 (16)

3.2.6 无损快照 (17)

3.2.7 远程复制 (18)

3.3 融合异构虚拟化 (23)

3.3.1 后端多路径 (24)

3.3.2 异构LUN迁移 (24)

3.3.3 异构远程复制 (25)

3.3.4 异构快照 (25)

3.3.5 异构虚拟化应用场景 (25)

3.4 弹性高效 (26)

3.4.1 自动数据分级-SmartTier (26)

3.4.2 自动精简配置 (28)

3.4.3 服务质量保障 (31)

3.5 融合平台带来的好处 (34)

4 缩略语表/Acronyms and Abbreviations (35)

1 执行摘要/Executive Summary

本文对华为推出的基于OceanStor 5300 V3 &5500 V3&5600 V3&5800 V3融合平台的统一存储中低端系列的特性和技术做了详细描述,重点在于OceanStor V3如何做到真正的融合及给客户在架构上带来的好处。融合平台在数据可靠性、灵活性、存储效率、数据保护及高性能等方面带来的架构优势,使得客户在新一代的OceanStor V3存储系列中能获得华为创新的软硬件技术优势。

本文档适用范围为公司产品行销、产品经理及客户技术人员等。

2 简介/Introduction

随着虚拟化的大行其道,云计算技术的发展,IT系统面临着资源利用效率、架构灵活性和快速面对应用变化的挑战。

当今世界,越来越多的企业采用虚拟化与云计算技术来构建IT系统,提升IT系统的资源利用率,并在保证服务级别水平的前提下降低成本;同时帮助业务更加具有敏捷性,加速新业务的上线时间。

然而,虚拟化与云计算技术的广泛应用也给后端的存储系统提出更加严峻的挑战。如:需要存储系统能够承载更多的业务、更高的性能与可靠性、更好的扩展性、保证关键业务服务级别水平并降低成本的关键技术等。

华为公司全力打造的OceanStor V3企业SAN和NAS融合的统一存储系统正是以高性能、高可靠、存储效率、数据保护为其设计理念,充分满足企业未来业务需求,帮助其IT系统转型以更快更好地应对日益激烈的竞争环境,实现与客户的共同成长。

3 统一融合方案

随着企业面临的竞争环境越来越激烈、新业务上线时间要求越来越短,其IT系统需要从传统的成本中心转变为提升企业竞争力的利器,帮助企业提升竞争力并实现商业成功。作为存放核心业务数据的企业统一存储系统,不但要满足核心业务所需要的高性能、高可靠等基本诉求,更要满足未来业务的发展、提升业务的敏捷性,帮助业务更快更好地适应竞争环境的需要。

从IT业界发展来看,以下方面正影响在存储行业的发展:

●固态硬盘广泛应用

随着集成电路成本的下降,值得存储业界关注的固态硬盘(SSD:Solid State Disk)已经广泛应用。SSD有它独特的优势:首先,数据存取速度快,NAND闪存比传统的机械硬盘访问速度快30至40倍;其次,固态盘具有防震、抗摔的能力,由于全部采用了闪存芯片,不存在任何机械部件,这样即使在高速移动情况下也不会影响到正常使用;另外一个好处就是节约了电力成本,因为固态硬盘每IOPS的能耗相比机械硬盘来说要低得多。总的来说,随着越来越多的固态硬盘被添加到存储系统中,它所带来的好处就更加明显。

存储系统需要能够利用固态盘高性能、机械盘大容量的特点,来满足业务对高性能与成本约束的双重要求。

●虚拟机的广泛部署

虚拟机技术给服务器带来更高的利用率、给业务带来更便捷的部署,降低TCO,正成为CIO们首选的技术来提升IT系统的效率。同时,虚拟机应用给存储带来以下挑战:第一,相比传统的物理服务器方式,单个存储系统承载了更多的业务,存储系统需要更强劲的性能来支撑;第二,采用共享存储方式部署虚拟机,单个卷上可能承载几十或上百的虚拟机,导致卷IO呈现更多的随机特征,这对传统的Cache 技术提出挑战;第三,单个卷承载多个虚拟机业务,要求存储系统具备协调虚拟机访问竞争,保证关键虚拟机获取资源实现性能目标;第四,单个卷上承载过多的虚拟机,需要卷具备苛刻性能的能力,这对传统受限于固定硬盘的RAID技术提出挑

战;第五,虚拟机的广泛使用,需要更加高效的技术来提高虚拟机的部署效率和管

理虚拟机文件,加快新业务的上线时间。

华为公司紧跟业界趋势,在充分掌握了用户需求的基础上强力推出基于OceanStor V3的

平台的企业统一存储系统,该系列产品是专门为虚拟化与云计算环境而设计、面向企业

统一存储市场应用的新一代产品,以强大的硬件规格和扩展能力为支撑,融合动态分级

存储、缓存分区、硬盘均衡、多重数据保护等诸多高端存储技术,能够满足金融、电信、

证劵、电力、石油等行业关键业务的需求,保证客户业务高效稳定运行的同时,提升业

务的敏捷性与竞争力。

3.1 OceanStorV3统一存储系列介绍

华为OceanStor V3企业统一存储是建立在拥有重删压缩功能、块级虚拟化RAID2.0+的

新一代OceanStor V3平台之上,拥有细粒度的资源调配、动态迁移和均衡、精简配置、

数据消重和无损快照等一体化平台带来的优点。不同于传统厂商的统一存储,华为新一

代存储操作系统OceanStor OS的SAN和NAS并非在LUN上建文件系统或在文件系统

上抽象出LUN的接口给主机,华为的统一SAN和NAS是真正的融合,文件系统和块

接口都直接构建在存储虚拟资源池之上,没有传统统一存储SAN和NAS上面的层叠关

系,对资源的使用效率更胜一筹。同时,OceanStor V3既实现传统阵列的闪存加速的混

合存储,又同时支持构建基于闪存特点而设计的全闪存阵列,实现HDD和SSD的自由

融合。

OceanStor V3存储系统支持型号为OceanStor 5300 V3、5500 V3、5600 V3、5800 V3。

OceanStor V3存储系统系列产品采用全新的硬件平台,采用最新的英特尔IvyBridge处

理器,最多支持128个核心,并采用了业界领先的PCIE3.0和SAS3.0技术,实现端到

端的高速数据通道,同时推出了16Gb FC、10GE TOE、10 Gb FCoE 3 合1的软件定义

接口,灵活客户的配置。最大支持8个控制器。所有产品型号都是基于统一的OceanStor

V3融合平台,各产品型号功能特性基本上是相同的,主要的差异在硬件形态、硬件/软

件规格等方面,规格随着型号的提升而提高。

图一OceanStor V3存储系列产品

3.2 OceanStor V3融合平台架构

3.2.1 硬件中低端融合架构

OceanStor V3平台的企业统一存储系统采取IP互联架构设计(控制器之间采用PCIe 3.0

背板互联设计(如图二),实现控制器间的业务交换和镜像通道。最大支持4个引擎,

每对引擎包含2个控制器,整个系统最大支持8个控制器。每个控制器分别与2个交换

平面通过10GbE以太网交换机进行互连实现数据转发;此外,引擎内的两个控制器之

间存在8 lane PCIe3.0镜像通道。

图二双控PCIE3.0互联

下图三以8控为例说明控制器之间的IP互联交换架构设计:

图三多控架构示意图

4个控制框之间通过10GbE互联以太网连接到两个冗余的DSW(Data Switch)中,在

DSW中实现数据交换,同时也保证集群数据交换网络的冗余性。采用IP互联可以为以

后集群的扩展预留空间,更适合将来的集群弹性扩展。而双控间数据交换和镜像通道采

用全PCIe的互联架构,可以实现更加高效的数据交换。

全新的OceanStorV3中低端全系列都拥有PCIE3.0全互联、后端SAS3.0技术和Intel新

一代IvyBridge CPU所带来的高速通道和强劲的计算能力,灵活满足客户越来越高的性

能需求。而中低端跟高端一样无单点故障的设计和ScaleOut的扩展能力,更是为只有有

限预算的客户带来了高端存储才有的高可靠性和灵活扩展性。

3.2.2 NAS和SAN融合架构

统一存储的OceanStorV3融合平台架构如下图四,文件系统和块接口是平行的出在Space

子系统之上,下面是基于RAID2.0+的块虚拟化存储池子系统。在这个架构中,文件系

统和LUN都直接与底层的Space子系统交互。文件系统架构是基于对象集,每个文件

或文件夹是一个对象,而每个文件系统是一个对象集。对于LUN来说,LUN分Thin LUN

和传统的Thick LUN。二种LUN也都来自于Pool和Space系统,并没有建立在文件系

统之上。这样简化的软件栈带来的存储效率比图五这种传统的统一存储架构效率要高,

同时LUN和文件系统各自保持独立,互不影响。

图四OceanStor OS软件平台架构示意图

图五传统统一存储架构

而对比友商,像EMC统一存储VNX的NAS功能,需要加配X-Blade(NAS网关)来提

供共享文件服务,采用的文件系统和块服务是运行在二套不同的操作平台之上,增加了

架构和软件堆栈的复杂性;而像Netapp的FAS系列,其统一存储虽然运行在统一平台

之上,但块语义是基于WAFL(Write Anywhere File Layout)的文件系统之上,在软件层级

上也较OceanStor V3平台的复杂。从软件堆栈的层级来看,建立在华为OceanStorV3融

合平台之上的统一存储,效率将更高。

3.2.3 RAID2.0+技术

OceanStor V3系列应用了创新的RAID2.0+块虚拟化技术,每个硬盘空间被划分成一个

个小粒度的数据块,基于数据块来构建RAID 组,使得数据均匀地分布到存储池的所

有硬盘上,同时,以数据块为单元来进行资源管理,大大提高了资源管理的效率。

1)OceanStorV3平台的存储池支持三种不同类型(SSD、SAS 和NL-SAS)的硬盘,

不同磁盘类型组成了不同的性能和容量要求,这些硬盘组成一个个的硬盘域(Disk

Domain),在硬盘域中,同种类型的硬盘按照一定的规则被划分为一个个的Disk

Group(DG);通过动态分级存储技术,实现冷热数据在不同层级中的自由按需流动,进一步提升存储资源使用效率。

2) 在DG 中,每个硬盘被切分成固定大小的数据块(Chunk,也叫CK),通过随机算法,将不同硬盘的Chunk(CK)按照RAID 算法组成Chunk Group(CKG);

3) CKG 被划分为固定大小的逻辑存储空间(Extent),Extent 是构成Thick LUN(也

叫FA T LUN)的基本单位;对于文件系统和Thin LUN,会在Extent 上再进行更细粒度的划分(Grain,默认64K),并以Grain 为单位映射到Thin LUN和文件系统。

图六SAN/NAS共用RAID2.0+

OceanStor V3中低端支持RAID级别为:0,1,5,6,10,50,支持的RAID 策略和配置如下表所示:

存储池,是存放存储空间资源的容器,所有应用服务器使用的存储空间都来自于存储池。一个存储池基于指定的一个硬盘域创建,可以从该硬盘域上动态的分配Chunk(CK)资源,并按照每个存储层级(Tier)的“RAID 策略”组成Chunk Group(CKG)向应用提供具有RAID 保护的存储资源。

Tier 即存储层级,存储池中性能类似的存储介质集合,用于管理不同性能的存储介质,以便为不同性能要求的应用提供不同存储空间。存储池根据硬盘类型可划分为多个Tier,用于满足不同的性能和容量组合要求。

热备空间与重构:

1、DG中所有剩余Chunk都是多用途的,可以用作写时分配、创建新LUN分配、

重构分配的空间。

2、热备空间是一个配额,当剩余的Chunk数低于配额的时候禁止创建新业务和写时

分配空间。

3、当出现硬盘损坏时,系统自动从硬盘所在DG选取空闲的Chunk进行重构,由于

在DG内部是随机分布的,所以当一个盘损坏时整个DG的硬盘均会参与重构,从而提高重构速度。

以9块硬盘RAID5 为例。当硬盘1损坏,造成CKG0和CKG1的数据损坏。系统随机选择CHUNK进行重构。如下图,14和16两个CHUNK损坏,将随机选择存储池中的空闲CHUNK进行重构(如下图黄色方块),随机选择的CHUNK将保证尽量分布在不同的硬盘上。

图七RAID2.0+下硬盘损坏示意图

如下图,随机选择硬盘6的61号CHUNK和硬盘8的81号CHUNK,数据将从其他成员盘重构到这两个CHUNK。

图八RAID2.0+下硬盘重构示意图

传统硬盘重构的瓶颈主要在目标盘(热备盘),因为所有成员盘将所有数据读出后全部写入到目标盘,其写带宽就成了整个重构速度的关键,比如一块传统2T大容量硬盘,重构时间就是2T除以30M/S,也就是18个小时。

而经过RAID2.0块虚拟化后将有两个方面的提升:

1)多块目标盘,如上例子就是两块目标盘,重构时间就将缩短为9小时,当CHUNK 数量和成员盘增加时,目标盘可以达到成员盘个数,所以重构速度将极大提升。

2)按CHUNK重构,当故障盘上分配的CHUNK较少时,需重构的数据将大幅降低,重构速度将进一步提升。

RAID2.0最快可以达到每TB重构30分钟完成,重构时间的缩短,将大大降低双盘失效的概率。

无需花费过多的时间做存储预规划,只需简单地将多个硬盘组合成存储池,设置存储池

的分层策略,从存储池划分空间(卷或文件系统)即可;当需要扩容存储池,只需插入新

的硬盘,系统会自动的调整数据分布,让数据均衡的分布到各个硬盘上;当需要扩容卷

时,只需输入想要扩容的卷大小,系统会自动从存储池中划分所需的空间,并自动调整

卷的数据分布,使得卷数据更加均衡的分布到所有的硬盘上。细粒度的块划分使得数据

在存储池中硬盘上自动均衡分布,避免了硬盘的冷热不均,从而降低了存储系统整体的

故障率。由于文件系统和LUN真正融合在RAID2.0+架构之上,不管是文件系统还是

LUN空间,都将享有RAID2.0+带来的自动均衡、快速重构、提高可靠性等好处。3.2.4 Cache&SmartCache

建立在OceanStor V3平台之上的华为企业统一存储缓存分为读、写、镜像三种类型。读、

写、镜像共用所有缓存,镜像缓存保存对端控制器写缓存的数据,用于当对端控制器故

障时,恢复对端缓存数据。在垂直维度上,Cache分为一层Cache和二层Cache:一层

Cache是用户Cache,目的是减少客户读写时延,由Space子系统管理;二层Cache是

strip cache,目的是硬盘加速,由Pool子系统管理。一层Cache和二层Cache均具有读、

写、数据镜像功能,对文件系统和LUN在完成数据加速访问的同时也保证了单控复位

或故障时文件系统数据的一致性和业务的连续性。

1)读、写、镜像缓存有配额限制,写缓存的大小与镜像缓存的大小相等。

2)写和镜像缓存没有使用时,读缓存最大可以占有所有缓存资源。

3)若写和镜像缓存达到限制的最大配额时,读缓存大小为控制器缓存大小减去写

和镜像缓存之和。

4)系统对最小读缓存有预留,在写业务压力大时,仍能保证读业务有最小

的缓存资源可以使用。

OceanStor V3企业统一存储缓存算法实现了多路顺序流识别算法,即在大量乱序和随机

的IO中识别出顺序IO流,对顺序的读写IO流采用预取和合并算法,能优化有多种应

用的场景的系统性能。

同时,OceanStor V3企业统一存储的预取算法实现了智能预取、固定预取、倍数预取等

算法。智能预取能自动识别IO特征,根据IO特征决定是否预取、预取多大长度,确保

产品性能能满足不同应用场景。当系统缓存占用率达到阈值时,淘汰算法根据历史访问

频率和当前的访问频率,计算数据块的热度,结合多路顺序流识别算法,选择合适的数

据进行淘汰。

而SmartCache利用SSD划分为一个独立的性能层级,来为数据做加速。SSD层可以作为一层Cache的扩充,为一层Cache缓存其存放不下的热点数据;也可以作为内部元数据的读缓存,如数据消重的元数据可以直接使用SmartCache来加速读。

SmartCache在对SSD资源进行管理上,分为两部分:SmartCache池和SmartCache分区。系统默认在每个控制器上生成一个SmartCache池,每个SmartCache池管理本控制器的所有SSD盘,并在本控制器上提供细粒度的本地SSD资源申请、释放功能。SmartCache 池要保证每个子分区的资源来自不同SSD盘,防止不同SSD盘负载不均衡。

控制器对

控制器对

图九SmartCache池及SmartCache分区

系统在每个控制器对上生成一个默认SmartCache分区,除了默认的SmartCache分区外,用户可以创建多个SmartCache分区,用户创建的分区也是基于控制器对的。一个控制器对上的SmartCache分区实际由两个控制器上的子分区构成。SmartCache子分区申请到细粒度的非连续SSD资源后,由子分区自己实现更细力度的资源申请、释放操作。

申请到缓存资源后,SmartCache 分区独立进行数据缓存、淘汰。

控制器对

控制器对SmartCache 分区0SmartCache 分区1

默认SmartCache SmartCache 分区2SmartCache 分区3默认SmartCache 分区

SmartCache 池0SmartCache 池1SmartCache 池2SmartCache 池3

图十 SmartCache 池、分区关系

对文件系统而言,文件系统操作涉及到三种类型的数据操作:用户数据(对应硬盘上对象的数据)、间接块和文件的属性dnode (存放在硬盘的对象管理结构中)。当用户数据和文件的属性操作在一层cache 中完成后,文件系统即可对用户返回操作成功,后续流程为异步执行,通过对文件系统元数据修改,小IO 做合并,从而实现对文件系统访问的加速功能。

3.2.5 在线数据重删

OceanStor V3平台带来了SAN 和NAS 真正融合架构以外,数据重删压缩功能也统一为文件系统和LUN 提供数据消重的服务。作为数据存储效率的提升,重删功能也已经从备份介质走向主存,尤其应对拥有SSD 层级的分级存储和全闪存阵列而言,重删的技术尤为重要,为客户节约空间的同时也较少了企业IT 架构的TCO 。与统一存储新平台Oceanstor V3一起推出的重删压缩功能,采用了硬件加速卡的方式来对数据进行重删,把对数据块的指纹计算、压缩、解压缩等功能都卸载到硬件上,减少对控制器CPU 的压力,同时利用SSD 作为重删元数据加速,提高整个存储重删的性能。

OceanStor V3的数据消重选择了在线消重,针对文件系统和ThinLun 的数据流以4K~64K (基于文件系统和ThinLUN 的Grain 大小)粒度做指纹计算,然后通过指纹比对或亦可选择开启逐字节对比来对重复数据消重。同时,硬件加速卡对重删后的数据进行压缩和解压缩。 重删模块处理写请求的流程如下:

计算写请求数据的指纹Hash 值,这里需要根据传入的DIF(Data Integrity Field)类型,按

照对应的规则计算Hash 值;

调用KV_DB(KeyV alue-DataBase)接口查询重删指纹元数据(KV 项),KV_DB 调用重

删注册的元数据读接口从盘上加载数据,在有元数据SmartCache 加速时,先从

SmartCache 中查询数据是否命中,命中则直接返回,如果未命中则直接从对象中读

取,并将读到的干净数据加载至SmartCache 中,KV_DB 返回重删模块查询到的结果; 根据查询到的指纹元数据对数据先进行重删处理,之后对需要下盘的数据进行压缩后

申请物理空间;

根据重删压缩后的处理结果调用KV_DB 接口修改重删指纹元数据(KV 项),KV_DB

在事务准备阶段仅将修改的内容保存在内存中,在提交阶段将修改的元数据下盘; 返回处理后的结果,包括BP(Block Point)信息和重删压缩后需要下盘的写请求。

得益于SAN 和NAS 的融合架构,文件系统和Thin LUN 均可以打开重复数据消重功能,实现基于块的在线数据消重。

3.2.6 无损快照

新的Oceanstor V3推出的统一存储中的文件系统采用ROW(Redirect-On-Write)的机制来对文件系统进行操作。文件系统是一个对象集,对象集和对象用一颗B+树来表示。所以一个文件系统的入口就是一颗对象集的树的根节点。在做基于ROW 机制的快照的时候,文件系统只需记录快照时刻的那个根节点。当数据发生改变的时候,由于是ROW ,新写的数据会写在新的逻辑块中,同时元数据指针做个修改就可以表示快照文件系统和源文件系统。

下图展示了创建文件系统只读快照的基本原理:

(a )

Before

Snapshot (b )When Snapshot

图十一创建FS 创建只读快照原理图

如上图,即创建时直接将源FS的Objset(ObjectSet)Root复制给只读快照,只读快照直

接共享源FS的所有用户数据。创建成功后,修改源FS的用户数据时场景如下:

(a)

Modify

Filesystem

图十二修改有只读快照的源FS数据原理图

如上图,当修改有只读快照的源FS数据时,发生ROW,新的脏数据将写到新的位置,而旧

数据块被快照保护下来,且旧数据块的地址会被记录下来(以提高删除只读快照时的性能);

未发生变化的数据仍被源FS和其只读快照共享。由于快照过程中只记录快照时刻的指针,

创建快照时间极短,且不存在对快照空间的预分配及数据拷贝。同时ROW快照创建后,对

源文件系统性能影响极小。而对于Thick LUN的快照OceanStor V3支持COW方式做快照,

其实现基本原理如下:

1)当虚拟快照被激活时(此时刻称为快照时间点),系统同时创建一个映射表。映射

表记录了源卷(源LUN)中原数据和其物理地址的映射关系。

2)当有数据写入时,首先将源卷将被写入位置的原数据移动到资源卷中,映射表同时

进行映射关系的修改,记录原数据的新位置,然后将新数据写入到源卷中,此过程

通过copy-on-write(写前拷贝)技术实现。

3)当后续再有数据写入源卷的同一位置时,系统将通过映射表检测到该位置在快照点

时的数据已移入资源卷,将不再将当前数据移动到资源卷中,而是直接覆盖,即对

于同一位置的更新仅进行一次写前拷贝。

4)当用户需要恢复出快照点时刻的数据时,可通过快照数据的回滚快速实现,通过回

滚,存储阵列可将数据恢复到快照点时刻。

3.2.7 远程复制

远程复制是容灾备份的核心技术,可以实现远程数据同步和灾难恢复。华为高中低端融合的

统一平台不仅都提供远程复制的特性,为企业灾备、集中备份及同城高可用性提供技术支持,

而且不同于传统厂商,华为高中低端统一平台能让客户的远程复制技术互联互通,有效保护客户的设备投资,而无需搭建额外的设备来完成高中低端不同平台间的数据保护。

华为OceanStorV3支持的主要有以下两种复制模式:

1)同步远程复制:实时地同步数据,最大限度保证数据的一致性,以减少灾难发生时

的数据丢失量。

2)异步远程复制:周期性地同步数据,最大限度减少由于数据远程传输的时延而造成

的业务性能下降。

OceanStor V3企业统一存储系统远程复制支持同步远程复制(HyperReplication/S)和异步远程复制(HyperReplication/A) 两种主流的远程复制技术,以满足用户对数据容灾方式的多重选择。

同步远程复制

HyperReplication/S利用日志原理实现主、从LUN的数据一致性,首先当主站点的主LUN和远端复制站点的从LUN建立同步远程复制关系以后,会启动一个初始同步,也就是将主LUN 数据全量拷贝到从LUN,初始同步完成后,主LUN收到生产主机写请求,按照下面的流程进行I/O处理:

1.主LUN接收生产主机写请求,记录这个I/O对应数据块的差异日志值为“有差异”;

2.同时把写请求的数据写入主LUN和从LUN,写从LUN时需要利用配置好的链路将数

据发送到远端复制站点;

3.判断写主LUN和写从LUN的执行结果,如果都成功,则将差异日志改为“无差异”,否

则保留“有差异”,在下一次启动同步时重新拷贝这一个数据块;

4.主LUN返回生产主机写请求完成。

图十三HyperReplication示意图

技术特点

零数据丢失:

对主、从LUN同时进行紧密的数据更新,保证RPO为0。

支持分裂模式:

支持分裂模式,在分裂状态下,生产主机对主LUN的写请求只会写到主LUN,满

足用户的一些需求:如暂时性的链路维修、网络带宽扩容、需要从LUN保存某一

个时间点的数据等等。

支持复制的主从切换:

支持用户进行主从切换操作(见下图),主站点的主LUN在切换后变成了新的从

LUN,而复制站点的从LUN在切换后变成了新的主LUN。经过一些在主机侧的简

单操作以后(主要是将新主LUN映射给备用生产主机,也可提前映射),复制站点

的备用生产主机接管业务并对新主LUN下发读写请求。

图十四远程复制主从切换示意图

支持一致性组:

同步远程复制提供一致性组功能来保证多个LUN之间复制数据时间一致性。用户创建一致性组以后,可以将远程复制对添加到一致性组中,如下图。一致性组也可以进行分裂、同步和主从切换等操作,在进行这些操作时,一致性组的所有成员复制对同时进行分裂、同步、主从切换和强行主从切换。此外,当遇到故障时,一致性组的所有复制对都会一起进入断开状态。

相关文档
最新文档