Simpana V10 重复数据删除(20130718)

合集下载

主流重复数据删除产品的全面对比解析

主流重复数据删除产品的全面对比解析

[键入文档标题]作者:IT168 李隽目录文件级与数据块级的重复数据删除....... 错误!未定义书签。

定长切割模式VS 非定长切割模式 ....... 错误!未定义书签。

基于备份源与基于目标端的重复数据删除. 错误!未定义书签。

不同重复数据删除方案的对比........... 错误!未定义书签。

不同条件下重复数据删除效果对比....... 错误!未定义书签。

重复数据删除如今已经不是新鲜的话题了,基本我们看到,市面上大部分备份产品已经具备重复数据删除功能,基本上已经成为备份领域产品的一项必备的选项。

但是市面上重复数据删除的产品林林总总,有备份类的,也有集成在虚拟带库中的重复数据删除,而一些重复数据删除的概念也让用户感到迷惑,比如全局重复数据删除?比如带内和带外重复数据删除……对于用户来说,面对如此繁多的产品究竟该如何选择呢?本文将梳理市场上大部分主流重复数据删除的产品的特点,并分析优劣势,帮助用户选择合适的重复数据删除产品。

文件级与数据块级的重复数据删除首先我们看一下重复数据删除的定义。

所谓重复数据删除,就是说我们要把一些相关的数据,它是一些重复性的,把它从一些生产上删除掉,这样可以大大节省我们生产空间的增长速度,从而降低我们的电耗,而且降低整个管理成本。

目前来说,大部分重复数据删除都采用了相似的处理过程,首先是通过特定的算法,把一个文件切割成不同的小块,其次是比较这些块的不同性,把一些重复的删除掉。

对于文件级的数据来说,组成文件的数据块其实是存在重复的,当文件被切割成更小的数据块后,重复率就大大增加了,然后系统在每个切割的数据块前面增加指针和索引,记录这些块是怎样组合成文件的。

再有文件记录进来,文件被打碎成小的数据块,系统就只会记录和已经的数据块不同的数据块。

并能够根据数据块前面的索引信息,将打碎后保存的唯一的数据块组合成文件。

将文件打碎成小的数据块,删除重复的数据块后,只存储唯一的数据块。

重复数据删除技术简介

重复数据删除技术简介

重复数据删除技术简介这篇文章基于现有的SNIA材料,描述了重复数据删除流程可以进行的几个不同的地方;探讨了压缩与单实例文件以及重复数据删除之间的不同点;研究了次文件层重复数据删除执行的几个不同方式。

它同时还解释了哪种类型的数据适合重复数据删除,以及哪些不适合。

介绍重复数据删除已经成为存储行业非常热门的话题和一大类商业产品。

这是因为重复数据删除可以大幅减少购置和运行成本,同时提高存储效率。

随着数据量的爆炸性增长,接近一半的数据中心管理员都将数据增长评为三大挑战之一。

根据最近的Gartner调查结果,重复数据删除可以减轻存储预算的压力并帮助存储管理员应对数据的增长。

虽然重复数据删除主要被视为一种容量优化技术,不过该技术也可以带来性能上的好处--随着所需存储的数据的减少,系统所需迁移的数据也减少。

重复数据删除技术可以应用在数据生命周期上的不同点上:从来源端重复数据删除,到传输中重复数据删除,一直到存储目标端重复数据删除。

这些技术还可以应用在所有的存储层上:备份、归档和主存储。

重复数据删除的解释无论使用哪种方式,重复数据删除就是一个在不同层次的粒度性上识别重复数据并将重复数据替代为指向共享复件的指针的过程,这样可以节约存储空间和迁移数据所需的带宽。

重复数据删除流程包括跟踪并识别那些被删除的重复数据,以及识别和存储那些新的和独一无二的数据。

数据的终端用户完全不会感到这些数据可能已经被执行重复数据删除流程并已经在其数据生命周期中被重建许多次。

对数据进行重复数据删除操作有几种不同的方式。

单实例存储(SIS)是在文件或块层次上进行重复数据删除。

重复副本会被一个带着指针的实例所取代,而指针则指向原始文件或对象。

次文件层重复数据删除的操作粒度则比文件或对象更小。

这种技术有两种常见的方式:固定块重复数据删除--数据被分解成固定长度的部分或块;可变长度重复数据删除--数据根据一个滑行的窗口进行重复数据删除。

数据压缩是对数据进行编码以减小它的大小;它还可以用于那些已经被重复数据删除的数据以进一步减少存储消耗。

重复数据删除的工作原理

重复数据删除的工作原理

重复数据删除的工作原理重复数据删除是一种数据处理方法,用于从数据集中删除重复的数据记录。

在数据分析和数据清洗的过程中,重复数据是一个常见的问题。

重复数据可能来自于多个渠道,例如不同渠道收集的数据、数据导入导出时的错误、数据存储的重复等。

重复数据除了占用存储空间外,还可能影响分析结果的准确性和可靠性。

因此,重复数据的删除是数据预处理的重要一步。

首先,识别重复数据。

识别重复数据的方法有多种,常用的方法包括基于唯一标识,基于特征相似度和基于数据结构。

基于唯一标识的方法是通过判断数据记录是否具有唯一的标识来识别重复数据。

例如,对于关系型数据库,可以通过主键或唯一键来判断数据记录是否重复。

如果两条数据记录具有相同的主键或唯一键,就可以判断它们是重复的。

基于数据结构的方法是通过构建数据结构来识别重复数据。

例如,在图数据处理中,可以构建图数据结构,然后通过遍历图的节点和边来识别重复数据。

识别重复数据的方法选择与具体应用场景相关,需要结合数据的特点和需求来选择合适的方法。

例如,如果数据集规模较小,可以使用简单的基于唯一标识的方法;如果数据集包含文本数据,可以使用基于特征相似度的方法;如果数据集是图数据,可以使用基于数据结构的方法。

接下来,删除重复数据。

删除重复数据的方法也有多种,常用的方法包括删除冗余记录和合并重复记录。

删除冗余记录是指直接删除重复数据记录。

例如,在关系型数据库中,可以使用DELETE语句来删除具有相同主键或唯一键的数据记录。

合并重复记录是指把重复的数据记录合并成一条记录。

这通常需要对数据进行一些数据处理和转换。

例如,在文本数据处理中,可以把两个文本的内容合并成一个文本;在图数据处理中,可以把两个节点合并成一个节点。

删除重复数据的方法选择与具体应用场景和需求相关。

例如,如果数据集规模较小,可以直接删除冗余记录;如果数据集包含大量重复数据但又不希望丢失信息,可以使用合并重复记录的方法。

重复数据删除的工作原理的具体实现与具体的数据处理工具和编程语言相关。

重复数据删除的工作原理

重复数据删除的工作原理

重复数据删除的工作原理作者:杨涛就在几年前,一提起备份大家就自然而然地想到磁带,但是在数据量爆炸式增长的今天,磁带技术由于其性能以及可靠性方面的固有缺陷变得越来越不能满足不断变化的业务需求,加之磁盘设备价格的下降,所以有越来越多的用户采用磁盘备份的解决方案。

但这在解决了性能和可靠性问题的同时又引入了新的问题——磁盘不能够象磁盘那样离线保存,不可能无限制的扩充容量,而用户数据增长的趋势却是无限的,并且由于其不能离线保存也导致了远程容灾数据的传送需要占用大量的带宽,这些都在经济上给用户造成了极大的压力。

那么有没有办法来缓解甚至解决这种磁盘容量的有限性和数据增长的无限性造成的矛盾呢?答案是“重复数据删除(Data de-duplication)”技术。

“重复数据删除”也称为“单实例存储(Single Instance Repository,简称SIR)”或者容量优化(Capacity Optimization),顾名思义,其根本作用是消减存储中的重复数据,以使任何一份数据只保存一份实例,达到充分利用存储空间的目的。

它是近年存储领域涌现出来的一门新兴技术,各大竞争厂商都生成其重复删除比可以达到1:20 左右甚至更高,被专家誉为是一种“将会改写存储行业的经济规则”的技术。

然而在实际和用户的接触中,大多数用户对该技术还存在许多疑问,诸如:“和增量备份有何区别”、“会不会造成数据损害”、“会不会影响备份性能”等等。

所以,在这里我们就详细探讨一下重复数据删除的工作原理。

首先,“重复数据删除”和“增量备份”是完全不同的概念。

“增量备份”是指只备份变化的文件;“重复数据删除”则是指只备份不重复的数据。

举个简单的例子说明它们的区别:比如有一个文件型数据库Access的文件finance..mdb ,如果向该库中新插入了几笔记录,那么则意味着该文件发生了变动。

当采用增量备份时会检查该文件的标志位,并将该文件整个重新备份;而如果使用“重复数据删除”技术,则只会备份新插入记录的数据。

删除数据库中重复数据的技巧

删除数据库中重复数据的技巧

删除数据库中重复数据的技巧在数据库中处理重复数据是非常常见的任务,这些重复数据会占用额外的存储空间,增加查询和操作的开销,并且可能导致数据不一致性的问题。

因此,删除数据库中的重复数据是非常重要的。

下面是一些可以帮助您处理数据库中重复数据的技巧:1.使用INNERJOIN和临时表:-创建一个临时表,用于存储重复的数据行。

-使用INNERJOIN将原始表和临时表连接起来,匹配重复的数据行。

-在连接条件中,使用GROUPBY来按照重复数据的列进行分组。

-通过删除临时表中的重复数据行,可以保留原始表中的唯一数据行。

2.使用ROW_NUMBER(函数:-使用ROW_NUMBER(函数为每个数据行分配一个唯一的序号。

-使用PARTITIONBY子句按照重复数据的列进行分区。

-使用ORDERBY子句按照所需的顺序对数据进行排序。

-通过删除序号大于1的数据行,可以删除重复的数据行。

3.使用CTE(公共表表达式):-使用CTE来创建一个临时的、可重用的查询。

-在CTE中使用ROW_NUMBER(函数给每个数据行分配一个唯一的序号。

-使用PARTITIONBY子句按照重复数据的列进行分区。

-使用ORDERBY子句按照所需的顺序对数据进行排序。

-通过删除序号大于1的数据行,可以删除重复的数据行。

4.使用DISTINCT:-使用DISTINCT关键字选择唯一的数据行。

-通过将DISTINCT关键字与GROUPBY子句一起使用,可以选择指定列上的唯一数据行。

-通过将DISTINCT关键字与ORDERBY子句一起使用,可以选择按照指定的列唯一排序的数据行。

5.使用临时表和索引:-创建一个临时表,用于存储重复数据行。

-使用插入语句将重复的数据行插入到临时表中。

-在临时表上创建一个索引,以加快删除操作的执行速度。

-使用DELETE语句从原始表中删除临时表中的重复数据行。

6.使用子查询和EXISTS子句:-使用子查询选择重复的数据行。

重复数据删除的三种算法

重复数据删除的三种算法

厂商采纳的执行重复数据删除的基本方法有三种与及各种的优缺点。

第一种是基于散列(hash)的方法,Data Domain、飞康、昆腾的DXi 系列设备都是采用SHA-1, MD-5 等类似的算法将这些进行备份的数据流断成块并且为每个数据块生成一个散列(hash)。

如果新数据块的散列(hash)与备份设备上散列索引中的一个散列匹配,表明该数据已经被备份,设备只更新它的表,以说明在这个新位置上也存在该数据。

基于散列(hash)的方法存在内置的可扩展性问题。

为了快速识别一个数据块是否已经被备份,这种基于散列(hash)的方法会在内存中拥有散列(hash)索引。

当被备份的数据块数量增加时,该索引也随之增长。

一旦索引增长超过了设备在内存中保存它所支持的容量,性能会急速下降,同时磁盘搜索会比内存搜索更慢。

因此,目前大部分基于散列(hash)的系统都是独立的,可以保持存储数据所需的内存量与磁盘空间量的平衡,这样,散列(hash)表就永远不会变得太大。

第二种方法是基于内容识别的重复删除,这种方法主要是识别记录的数据格式。

它采用内嵌在备份数据中的文件系统的元数据识别文件;然后与其数据存储库中的其它版本进行逐字节地比较,找到该版本与第一个已存储的版本的不同之处并为这些不同的数据创建一个增量文件。

这种方法可以避免散列(hash)冲突(请参阅下面的“不要惧怕冲突”),但是需要使用支持的备份应用设备以便设备可以提取元数据。

ExaGrid Systems的InfiniteFiler就是一个基于内容识别的重复删除设备,当备份数据时,它采用CommVault Galaxy 和Symantec Backup Exec 等通用的备份应用技术从源系统中识别文件。

完成备份后,它找出已经被多次备份的文件,生成增量文件(deltas)。

多个 InfiniteFilers合成一个网格,支持高达30 TB的备份数据。

采用重复删除方法的ExaGrid在存储一个1GB的 .PST文件类的新信息时表现优异,但它不能为多个不同的文件消除重复的数据,例如在四个.PST文件具有相同的附件的情况下。

如何选择重复数据删除解决方案删除重复数据

如何选择重复数据删除解决方案删除重复数据

如何选择重复数据删除解决方案删除重复数据随着数据量的不断增加,许多人面临着数据重复的问题。

在处理数据时,重复数据可能会导致结果不准确,占据不必要的存储空间,甚至可能会造成系统崩溃。

因此,删除重复数据已成为数据清洗的必要步骤之一。

本文将介绍如何选择重复数据删除解决方案,以帮助拥有重复数据问题的人们找到最佳解决方案。

一、了解重复数据问题要选择最合适的重复数据删除解决方案,首先需要了解数据重复问题的根源。

数据重复有多种可能性,包括数据录入错误、数据集成、数据备份等。

重复数据问题可能会带来以下问题:1. 浪费资源:重复数据会占用不必要的存储空间,使数据库变得臃肿不堪,增加了数据备份的时间和成本。

2. 影响准确性:重复数据存在于统计分析、建模、预测等关键领域中,可能会导致结果不准确,误导决策。

3. 崩溃风险:重复数据导致内存和磁盘空间不足,最终可能导致系统崩溃。

二、选择最佳解决方案了解重复数据问题后,接下来需要选择最佳的解决方案。

以下是几个可以考虑的解决方案。

1. 使用SQL命令SQL命令是处理重复数据的最常用方法之一,这种方法需要编写SQL代码来查找重复数据。

以下是使用SQL命令删除重复数据的示例:SELECT DISTINCT * INTO tempTable FROM duplicateTableDROP table duplicateTableSELECT * INTO duplicateTable FROM tempTableDROP table tempTable这是使用SQL命令删除重复数据的示例,具体方法包括创建一个具有DISTINCT标识符的表,使用INSERT INTO语句将数据插入该表,删除原始表,然后使用SELECT INTO语句从临时表创建一个新的重复数据删除表。

这种方法简单易行,适用于小规模数据库和简单的重复数据清洗任务。

2. 使用数据清洗工具数据清洗工具是一种简便的清洗重复数据的方法,适用于大型数据库和复杂的重复数据清洗任务。

如何选择重复数据删除解决方案删除重复数据

如何选择重复数据删除解决方案删除重复数据

如何选择重复数据删除解决方案删除重复数据重复数据的存在会影响数据分析的结果和数据存储空间的效率,因此删除重复数据是数据处理的一个重要步骤。

但是选择合适的重复数据删除解决方案并不是一件简单的事情,需要根据不同的数据特点和数据处理要求来选择。

以下是一些常见的重复数据删除解决方案和选择时的考虑因素。

1. Excel 中的“条件格式”和“删除重复项”功能如果数据量不大,且数据格式较为简单,可以考虑使用 Excel中的“条件格式”和“删除重复项”功能。

在 Excel 中,选中数据区域,点击“数据”菜单中的“删除重复项”,选择需要查重的列,即可删除重复数据。

要注意的是,该方法只适用于单个 Excel 文档中的数据处理,不适用于批量处理和大数据量的数据清洗。

2. 数据库中的去重操作数据库可以承载大规模数据,并且数据库提供了许多优秀的数据去重操作。

根据数据类型不同,数据库的去重方法也各不相同。

常见的数据库去重方法有:2.1. SELECT DISTINCT 语句在 SQL 中,使用 SELECT DISTINCT 语句可以消除重复项。

例如,使用以下 SQL 语句可以查找一张表中不重复的行:SELECT DISTINCT * FROM myTable;这种方法可以在单个表中删除重复项,但如果需要去重的字段跨多个表,则需要使用其他方法。

2.2. GROUP BY 语句GROUP BY 语句可以根据指定的列对数据进行分组,并且可以对每个组进行聚合操作。

例如,以下 SQL 语句可以将一个表按照名字列(Name)进行分组,并计算每个名字出现的次数:SELECT Name, COUNT(*) FROM myTable GROUP BY Name;这种方法可以应用于多表之间的去重,但可能会比较复杂。

3. 编程语言中的去重方法当数据量较大或者需要自动化处理时,可以考虑使用编程语言中的去重方法,例如 Python 中的 pandas 库或者 R 语言中的deduplication 库。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

源端“去重”
当数据从“源端”传输到“目标端”的过程中,在源端先对被 传输的数据块进行哈希比对,如果该数据块先前已经被传输过 ,只需要传输哈希索引值;如果该数据块先前没有被传输过, 就传输该数据块,并记录该数据块的哈希值。
优点:可节约传输带宽 缺点:要占用源端资源进行去重处理
源端
传送的是新数据块 和老数据块的索引
Files
Content Alignment
具有内容感知的数据块传输
Databases
Content Alignment
Images
Content Alignment
Meta-data, tags, indexes
Segment – instance (hash)
Skip
Skip
Skip
1
• • • •
读取数据 压缩* 哈希比对* 加密*
4
MA
向MA传送数据
Check-Level 2 使用MA的DDB查找去重索引
MA
• 直接访问恢复 • 不需要读哈希表 • 支持GridStor备用访问路径
存储策略:
全局存储保留
Archive File / Offsets Mount path(s)
主副本: 存储在磁盘上,保留#天和周期 CV 目录 (索引)
在服务器应用 中有大量完全 相同的数据块
在连续的全备份 数据中,有 70%-90%的重 复数据
在归档文件中, 也有大量的数据 块是相同的
3
如何进行重复数据删除
节省大量 磁盘空间!
原数据集合
重复数 据删除 的过程
4
重复数据删除
逻辑视图
物理存储
对需要存储的数据,以块为单位进行哈希比对,对已经存储的数据块不再进行存储, 只是用索引来记录该数据块;对没有存储的新数据块,进行物理存储,再用索引记录, 这样相同的数据块物理上只存储一次。通过索引,可以看到完整的数据逻辑视图,而 实际上物理存储的数据却很少。
480 TB 10 TB/hr*
240 TB 5 TB/hr*
90 TB 2 TB/hr*
120 TB 2.5 TB/hr*
15 TB
30 TB
v7
v8
v9
v9 SSD
v10 2 nodes
v10 SP4 4 nodes
v11 16 nodes
并行去重
重新定义企业级去重规模
为满足大规模去重需求,把一组DDB及存储组合成一个集合,分段对齐,来获得最佳性能。 这样做的优势是能线性增加去重规模,对企业级去重或全局去重设计至关重要。
Retain 30 days
Cloud / Recovery Site
平台无关性: 可在不同的操作系统之间复 制
Deep Copy 3
DDB-3
Retain 365days
11
“在任何拷贝之间仅传输变 化的数据块”
DASH FULL
去重感知的合成全备
“标准合成全备”
读取, 重组数据和再次去重
目标端
5
目标端“去重”
当数据从“源端”传输到“目标端”的过程中,把数据块 传送到目标端,在目标端进行去重操作。
优点:不占用源端的资源 缺点:不能节省传输带宽
在目标端有两种处理方式:
在线处理方式(In-Line):在数据块存储之前进行去重处理,优点是占用存储空间较少, 缺点是要影响数据传输性能。 后处理方式(Post-Processing):先把数据块存储在缓存中,等系统空闲时再进行去重 处理。优点是不影响数据传输性能,缺点是需要额外的存储空间。
重复数据删除方案
2013年7月
目录
重复数据删除基本知识
CommVault 重复数据删除技术
Simpana 10 第四代重复数据删除技术 方案设计及最佳实践
竞争分析
2
为什么要进行重复数据删除
不同计算机中, 有许多完全相同 的文件,特别在 虚拟机中有80% 以上重复数据。
当进行集中数据备 份和归档时,重复 的数据块会导致存 储费用快速上升, 同时也会占用数据 传输带宽。
Remote Copy 1
DDB-1
Retain 5 days
DDB-2
MA Linux
DC Copy 2
高性能: 适用于快速网络环境的读优化模 式和基于窄带宽WAN环境 的网络优化模式, 使得各 种环境都能高效传输数据。 完整的拷贝管理选项: 独立的拷贝保留时间、 拷贝选择规则、作业过期控制、数据校验
metadata File data stream blocks
Compressed
重复数据删除
跨文件消除冗余的重复数据块 每个相同的数据块只存储一次, 后续的块以指针指向之前的物 理数据块 “去重比”= (数据量) / (在磁 盘上占用的空间). 不是最主要 需要考虑的因素
7
Week1 Week2 Week3
跨文件、备份集 跨客户端、备份代理
目录
重复数据删除基本知识
CommVault 重复数据删除技术
Simpana 10 第四代重复数据删除技术 方案设计及最佳实践
竞争分析
8
CommVault重复数据删除构架
支持备份和归档数据
Check-Level 1 (optional) 客户端使用本地去重缓 存SSDB判断数据块的 唯一性 SSDB Client Systems
高性能
2节点并行重删网格能支持存储180-240TB的唯一数据,备份速度 能达到4-5TB/小时,容量和性能是V9中单个重删节点的2倍。
高可靠
内置的故障切换能力能够使备份作业不间断,网格中即使有一个节 点不可用,剩余的节点可以继续工作接管备份。故障节点在后台自 动修复,然后加入网格继续工作。
DDB-G1
50 Mount Paths 2-8TB
• 算法保证同一HASH值会到同一 DDB中比对
1
4
2
DataMover
MediaAgent-1 (Primary)
DDB and Data Mover Role
2
5
DataMover
MediaAgent-2 (Primary)
DDB and Data Mover Role
5
3
如果数据已经存在,在所选择的分区中更新 DDB,在MA访问的装载路径上更新元数据 如果数据是新的,在所选择的分区DDB中插 入签名,数据写入MA能存取的装载路径
大规模
在低性能环境,可以结合多个重删节点提供高的重删容量。 如介 质服务器部署在云中,由于低的IPOS存储性能,每个重删节点容 纳的数据量不大,但多个节点通过并行全局重删可以实现更大的重 删规模。所以并行重删既可用于企业级环境也适用于云环境。
18
并行去重是如何工作的
1
2
客户端根据GridStor 存储策略选择 DataMover (MA), 发送数据到MA DataMover使用内部算法来选择哪个分区来 执行签名查找。如果所选的分区在其他MA上, 就通过网络上进行查找。
Store 2
MediaAgent-2 (Primary)
DDB and Data Mover Role
Store 3
MediaAgent-3 (Primary)
DDB and Data Mover Role
Store 4
MediaAgent-4 (Primary)
DDB and Data Mover Role
SILO 是将重复数据删除池里的数据 保持去重格式复制到磁带上,而不用
SILO to Tape
将老数据保持去重格式从磁盘复制到磁带做长 期保留—节约磁带空间 老数据从磁盘上过期,为新的备份释放出空 间—节约磁盘空间 – – SILO不适合短期的数据保留(几周) SILO 不适合恢复速度要求高的数据
F 12
In
Week 1
In
In
In
In SF In
Week 2
全局重复数据删除
全局去重存储策略:多个存储策略拷贝共享同一个DDB(全局 = 多个存储策略拷贝)
全局去重存储策略
多个不同存储策略的去重拷 贝使用相同的去重池作为备 份目标,使用相同的DDB、 磁盘库和去重属性,但保留 周期可以不一样 同一个全局去重存储策略可 以关联独立存储策略的主拷 贝和次级拷贝
备注: CommVault同时支持源端和目标端去重;支持在线处理方式,也支持后处理 方式(先备份到非去重拷贝,再辅助拷贝启用去重)
源端
传送的都是数据块
目标端
6
压缩与去重
压缩和重复数据删除都属于数据缩减技术
数据压缩
针对单个文件 采用空值压缩或缩短高频数据 表示值来缩小数据 15-20% CPU 开销 去重的补充手段
10
DASH 拷贝
随处移动去重数据块
描述 优势
使用DASH的方式能够更少的传输和处理已备 份数据,使得能够更快的创建去重拷贝。
高健壮性: 带宽控制、基于作业的复制,健 壮的网络选项,hppts安全传输协议,自动 重起,多流和报告
影响小: 不需要数据重组,快速的异步拷贝 变化数据块
MA
Windows
Storage Policy
Storage Policy
Storage Policy
Copy
Retention GDP
Copy
Retention GDP
Copy
Retention GDP
Block Size
Compression
DDB MA MA MA
Global Dedupe Store
13
去重到磁带-SILO
相关文档
最新文档