FAST Cache for 统一存储 VNX
emc配置FAST Cache的基本规则及最佳实践

配置FAST Cache的基本规则及最佳实践标签:FAST_CacheBest_PracticeCLARiiONCelerraVNX上周发的“CLARiiON, Celerra 和VNX中FAST Cache的功能介绍和一些速查资料整理”(/S6L9 FF)以及引用到的EMC白皮书《EMC CLARIION、Celerra统一存储和VNX FAST Cache详细介绍》,对FAST Cache设计概念、配置规划及使用进行了介绍。
根据大家的反馈,这篇文章总结了关于FAST Ca che的基本规则及最佳实践的一些额外详解信息,做为进一步的补充。
基本规则在存储系统中配置和部署FAST Cache 功能时应该遵循以下基本规则:•不要在任何保留/私有LUN上使用FAST Cache,除了METALUN组件。
包括保留LUN池(Reserved L UN Pool),克隆私有(Clone Private)LUN和Write Intent Log。
•考虑LUN上的数据类型是否真的需要FAST Cache。
例如,日志文件一般是顺序读写整个LUN的,因此它们并不适用于FAST Cache。
避免在不合适的LUN上使用FAST Cache能够减少I/O追踪开销,从而提高性能。
•不要在MirrorView/S备用镜像(Secondary Image)LUN以及SnapView克隆中使用FAST Cache。
这将包括在这些LUN的池上禁用FAST Cache。
•请不要将所有FAST Cache驱动器放在一个总线上(除非只有两个或四个驱动器的FAST Cache配置)请定义FAST Cache的每个RAID 1首要和次要镜像在不同总线,以提高可用性。
最佳实践通过大量测试及应用得出了一些FAST Cache最佳实践,下面是一些汇总信息:• FAST Cache驱动器能承受很高的负载,但如果将这些EFD配置在同一条总线上,就可能会造成该总线性能的饱和,特别是将所有FAST Cache驱动器都配置在总线0上,因为总线0上有Vault驱动器(系统盘)。
EMCVNXe3200

针对文件和数据块的 VMware vStorage API for Array Integration (VAAI): 利用更高效的、 基于阵列的操作 VASA 改善性能
vStorage API for Storage Awareness (VASA);为 VMware 管理员提供存储识别能力
交流电压为 100 伏时最大 2.5 安,交流 电压为 200 伏时 最大 1.3 安
最大 250 伏安 (240 瓦)
满负载时最低 0.98,低压
最大 8.64 x 105 焦耳/小时(820 Btu/小时)
每个电源配 15 安 保险丝,双相
VNXe3200 扩展存储模块 (25 个 2.5 英寸 驱动器)
EMC VNXe3200 统一存储系统
VNXe3200 是 EMC® VNXe® 系列的最新产品,也是最经济实惠的统一混合存储系统,能让 IT 通才体验到 EMC VNX® 的强大功能。
全新的 VNXe3200™ 保留了上一代 VNXe 系统的经济性、简洁性和高效率,并增加了对 MCx™ 多核优化、FAST™ Cache SSD 缓存、FAST VP 自动分层以及光纤通道主机连接的支持。这些 企业级功能之前仅用于高端存储系统中。
的传输速率
260 MB/s
260 MB/s
97 MB/s
150 MB/s
SP 和缓冲区之间 600 MB/s
的传输速率
(最高)
600 MB/s (最高)
600 MB/s (最高)
600 MB/s (最高)
3.5 毫秒
3.4 毫秒
平均寻道时间
无
无
(读取) 4.0 毫秒
(读取) 3.9 毫秒
Lenovo EMC存储方案介绍

联想存储业务 – 发展历程
2013年5月 存储业务正式成为独立核算的BU 联想存储 2012年 8月 和EMC建立全球战略合作伙伴 阶梯式 2010年10月与DotHill结成战略合作,推出针对中国市场的低端存储产品 迅猛 2006年 4月 发布全新的4Gb光纤存储产品及解决方案 发展 2005年 9月 加入SNIA China,成为首届主席会员 2004年 9月与HDS结成战略合作,推出全系列的低端到高端的存储产品 2002年 8月 与LSI结成战略合作,推出SureFibre系列光纤存储产品
Information Lifecycle Management
• FAST Cache(数据分层软件) • FAST Suite(数据自动分层管理)
软件
• PowerPath(多路径软件) • SureHA (双机软件) • Security & Compliance Suite(安全及 法规遵从)
Stocking
Cost management Lead time
Yes
Lenovo Normal 2 week, special materials 4 weeks
No
EMC 4-6 weeks
6
其他Resell产品
虚拟化与CDP:
VPLEX RecoverPoint 备份产品: Avamar Data Domain Networker
2002年 6月 与Brocade 结成战略合作,推出光纤存储交换机产品
2001年11月 率先在国内首推2Gb光纤磁盘存储产品,进军存储市场,开拓存储业务
竞争销售指南: EMC VNX 系列与 NetApp 的对比

竞争销售指南:EMC VNX 系列与 NetApp 的比较NetApp概述NetApp 继续将其ONTAP 8.1.1 产品线剥离为两个核心产品:7—Mode(是其常规纵向扩展产品线的增量改进)和 C-Mode(以前称为 GX,是其横向扩展产品,主要侧重文件功能,但也提供一些有限的数据块功能)。
NetApp 将新的ONTAP 8.1.1 横向扩展(群集模式)功能主要定位为与Isilon 和VMAX抗衡,而继续将 ONTAP 7-Mode 定位为与 VNX抗衡,这一定位至少持续整个 2012 年。
Data ONTAP 是一个统一存储平台,它跨整个协议范围提供具有NAS 和SAN 功能的单一应用装置。
此外,NetApp 还销售用于虚拟化第三方供应商产品的V 系列产品。
NetApp 的价值主张是通过一个统一应用装置提供纵向扩展或横向扩展体系结构,而且该体系结构能够在一个简单易用的存储应用装置中与闪存缓存和闪存池配对。
闪存池、可靠的快照、板载重复数据消除和压缩以及操作简单性成为NetApp 的增值核心。
C-Mode 将此技术扩展为一个具有无限卷的横向扩展体系结构,但它是一个不成熟的产品,并包含若干在短期内无法消除的主要局限性。
NetApp 收购 Engenio 是为了提供高速数据块功能。
ONTAP 中的 NetApp 仿真数据块可以提供便捷的快照,但与业界领先的解决方案(如VNX)相比,在数据块性能方面有一定差距。
NetApp 价值主张的更详细内容:∙简单的统一体系结构—一个体系结构用于大多数工作负载(使用其任意位置写入文件布局 (WAFL) 的单一产品视图)。
∙[C-Mode]:永不停机体系结构,在节点之间透明移动数据,可以无中断操作(实际上,在大规模数据移动可行性方面有巨大限制)∙[C-Mode]:提供大规模的运营效率。
可以最多扩展到20 个节点,每个系统配备1400 个驱动器。
∙[C-Mode]:单一命名空间、负载共享镜像和可靠的故障切换为何 VNX 系列优于 NetApp?VNX提供不折不扣的性能。
EMC Unisphere 新一代统一存储管理

• 根据不同的指标衡量并控制存储
可 用 性 能 可用性能
– 响应时间(例如 Exchange) – 带宽(例如 磁盘备份) – 吞吐量(例如 OLTP 应用程序)
应用程序 应用程序
基于应用程序的服务级别管理
© 版权所有 2011 EMC Corporation。保留所有权利。
14
性能/效率管理
Unisphere Analyzer
• 在质保期内CLARiiON和Celerra可以免费升级 到FLARE 30和DART 6.0,即可免费使用最新 的Unisphere管理软件
FLARE 19
FLARE 26
FLARE 28
FLARE 30 DART 6.0
VNX OE for Block 31 VNX OE for File 7
• 提供实时和历史性能数据
• 查明性能瓶颈 • 只来定制分析要 点的灵活性
数据趋势分析、报告和系统容量管理
© 版权所有 2011 EMC Corporation。保留所有权利。
15
针对虚拟化进行了优化
无缝的虚拟化体验与加速
VAAI* 减负
存储管理员 Unisphere
17
在线支持服务
Unisphere Service Manager
• 自助服务 • 安装和更换磁盘 • 收集诊断数据
• 确定相应的软件下载
• 向导驱动的软件更新 • 指向支持网页的链接 • 支持 VNX 系列、CLARiiON 和 Celerra
© 版权所有 2011 EMC Corporation。保留所有权利。
© 版权所有 2011 EMC Corporation。保留所有权利。
11
性能/效率管理
Lenovo EMC存储方案介绍

16 GB
32GB 1.8 GHz, Sandy Bridge 4 个核心
16 GB
32GB 1.8 GHz, Sandy Bridge 4 个核心
24 GB
48GB 2.4 GHz, Sandy Bridge 4 个核心
32 GB
64GB 2.0 GHz, Sandy Bridge 6 个核心
− 提高性能; − 隔离故障域; 无论出现何种故障都能实现零 RTO;− 更易于管理。 −
18
EMC VPLEX 产品特性——协作性
在不同的位置同时使用数据;
一个拷贝 — 始终最新; 立即可用; 无管理开LEX Local在本地数据中心使用,可跨数据中心内的异构阵列提供简化管理和无中断的数据移动能力; VPLEX Metro在两个数据中心使用,提供同步距离内两个VPLEX群集间的数据访问和移动性; VPLEX Geo能在异步距离内的两个或两个以上的VPLEX群集之间访问和移动数据,进一步打破数据中心 之间的距离障碍; VPLEX Global将彻底打破数据中心之间的距离障碍,使得跨国信息协作成为可能。
• • • •
专为中小型用户设计,简单易用 简单的向导驱动资源调配 控制器架构的NAS、IPSAN存储 入门级价格轻松拥有
全面的数据管理和保护
令人放心且不增加复杂性
软件套件
软件包
VNXe3150
Security and Compliance Suite
版本完整性和审计就绪性
Local Protection Suite
VNX-5150
V-MAX
VNX-5200
5
定制独销 + OEM +Reseller
FAST (全自动分层) VP for 统一存储 VNX
1. 自动分层存储技术概念解释自动分层存储(Automated Tiered Storage management,ATS)管理系统的基本业务是能够将数据安全地迁移到较低的存储层中并削减存储成本。
在其他的情况下,有必要将数据迁移到更高性能的存储层中。
自动存储分层(AST)在于两个目标–降低成本和提高性能。
从 I/O 角度来看,AST 的主要目标是将随机 I/O 尽可能多地转移到高性能介质(闪存)上,以最大程度地减少 HDD 上的随机 I/O 负荷,并减少平均延迟。
随机I/O 和顺序 I/O 之间的区分非常重要,因为对于连续读写,闪存与 HDD 相比性价比优势并不明显(原因在于 HDD 非常适于处理顺序 I/O)。
目前最常见的“Sub-LUN”式自动分层存储技术,基本上可视为是三个功能的综合:(1)存储虚拟化:将分散在不同存储层的磁盘区块,组合成虚拟的Volume或LUN.也就是将Volume或LUN的区块分散到不同存储层上。
(2)存取行为的追踪统计与分析:持续追踪与统计每个磁盘区块的存取频率,并透过定期分析,识别出存取频率高的“热”区块,与存取频率低的“冷”区块。
(3)数据迁移:以存取频率为基础,定期执行数据搬移,将热点区块数据搬移到高速存储层,较不活跃的冷区块数据则搬移到低速存储层。
由于存取行为追踪统计分析与数据迁移作业,都会消耗磁盘阵列控制器的能效,因此多数自动分层存储,都会提供预设操作功能,让使用者设定允许系统执行统计分析与数据迁移操作的时间区段,以便避开存取高峰时段,如可设定为只允许在晚上7点以后、或周五晚上到周日凌晨等下班时段,执行分析与迁移操作。
实现 AST 的两种不同方式:迁移与缓存基于迁移的 AST 可自动化数据迁移的流程。
当一个数据块被确定为“热”数据时,会将该数据块移至速度较快的介质,当该数据块变“冷”时,会将其移回速度较慢的介质。
移入和移出闪存都需要访问 HDD。
对应于VNX的FAST VP。
规格表:EMC VNX 系列统一存储系统 (2)
二端口 10 GbE FCoE 模块
具有两个 10 Gb/s 以太网端口的 FCoE 模块,并可选择通过 SFP+ 光纤或主动双轴铜端口与聚合增强型以太网交换机连接
四端口 6 Gb/s SAS V2.0 模块
SAS 模块,用于后端存储 (DAE) 与数据块存储处理器连接。每个 SAS 端口具有 4 个 6 Gb 的通道/端口,可提供 24 Gb/s 的正常吞 吐量,并可连接到第 3 代 PCI-E。可配置为 4x4x6 或 2x8x6。
有关数据块操作系统 与文件操作系统支持 情况,请参阅 Powerlink 上 的 ELab Navigator 和 NAS 支持列表
有关数据块操作系统 与文件操作系统支持 情况,请参阅 Powerlink 上 的 ELab Navigator 和 NAS 支持列表
* 60 驱动器 4U DAE 是一种顶装 DAE,需要使用一个高密度 EMC 机架。 ** 订购纯数据块系统时,不需要文件组件。 *** 每个 Data Mover 包括一个 UltraFlex IO 模块,以保留用于连接到捕获型阵列。 注意:此外还支持系列内数据就地转换,例如从较小的 VNX 平台转换到较大的 VNX 平台
每个阵列的最大 6 Gb/s SAS BE 总线数量
4 个 4 通道 SAS 端 4 个 4 通道 SAS 端 4 个 4 通道 SAS 端 4 个 4 通道 SAS 端 4 个 4 通道 SAS 端 0 口(用于 BE 连接) 口(用于 BE 连接) 口(用于 BE 连接) 口(用于 BE 连接) 口(用于 BE 连接)
2-8 个
控制台数量
1-2 个 1U 服务器 1-2 个 1U 服务器 1-2 个 1U 服务器 1-2 个 1U 服务器 1-2 个 1U 服务器 1-2 个 1U 服务器
EMC_VNX系列存储介绍
Event Enabler (anti-virus, quota management, auditing), File-level Retention, Host Encryption
SnapView, SnapSure, RecoverPoint/SE CDP
软件包和套件 价格更加优惠
FAST Suite Security and Compliance
Suite Local Protection Suite
Total Protection Pack
Total Efficiency Pack
Replicator, MirrorView A/S, RecoverPoint/SE CRR
Remote Protection Suite
Replication Manager, Data Protection Advisor for Replication
250
500
1000
SAS, NL- SAS, NL- SAS, NL- SAS, NL- SAS, NLSAS, Flash SAS, Flash SAS, Flash SAS, Flash SAS, Flash
0
4 to 8
4 to 13
6 to 18
6 to 42
none
1 or 2
1 or 2 or 3 2 or 3 or 4
2
2
2
2
2
4 GB / 控制器
8 GB / 控制器
12 GB / 控制器
18 GB / 控制器
24 GB / 控制器
FC
FC, iSCSI, FC, iSCSI, FC, iSCSI, FC, iSCSI,
EMC VNX产品介绍
Ž
Œ
60 个 3.5 英寸和 2.5 英寸驱动器*
升级简便:从数据块/文件到统一
VNX 外形尺寸
仅数据块基础 DAE = 仅含驱动器 DPE = 存储处理器 + 驱动器 SPE = 存储处理器
驱动器 添加 DAE 直到允许的最大容量 可在同一 DAE 中混合使用不同驱动器类型(例如 7.2K RPM + 15K RPM) 可在一个系统中混合使用不同的 DAE(例如,15 驱动器 DAE 和 25 驱动器 DAE)
VNX 统一存储组件
数据块组件:存储或数据处理器存储模块* VNX Operating Environment for Block 双活动存储处理器 自动故障切换 灵活的 IO 连接选项 备用电源(备用电池) 文件组件:X-Blade 存储模块 VNX Operating Environment for File 支持 2 到 8 个刀片,有可配置的故障切换选项 灵活的 IO 连接选项 控制站(1 或 2 个) 磁盘阵列存储模块 可升级以添加光纤通道端口和/或本机千兆或万兆以太网 iSCSI
VNX5200 应用领域 政府: 地市级政府部门的信息系统 教育: 普教、职教的核心存储设备,科研院所、高校院系的基础存储设备 企业: 中小型企业的核心存储设备,支持ERP、MRP、CRM、OA等应用 其它: 金融、证券行业的边缘存储设备 集成于电信设备制造商的各类方案中(如短信网关,NGN系统等)
支持“闪存优先”策略
利用 FAST Cache 实现实时缓存
借助 FAST VP 进行定期优化
FAST Suite
“闪存优先”更高效Fra bibliotek64 KB64 KB
64 KB
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
1. FAST Cache简介1.1 固态硬盘(SSD)新玩法关于什么是固态硬盘,参考《维基百科》与《百度百科》。
2008年,首个尝试将固态硬盘带入企业级存储系统的EMC,受到了业界极大的质疑,普遍的观点,甚至包括许多专业人士和存储媒体都认为,固态硬盘加入企业级存储系统在当时是个“天方夜谭”:固态硬盘的寿命太短了,写入速度的提高也不如读取速度提高一样显著,最关键的问题是,固态硬盘的价格太贵了,贵到连许多财大气粗的企业都难以承受。
EMC并不否认人们的普遍看法,但却仍然坚持自己对于固态硬盘的“偏执”。
随后的两年,在固态硬盘的销售上EMC尝尽甜头,而许多供应商也相继在存储系统上提供了固态硬盘。
随着存储分层技术和Cache技术的发展,如今,EMC让固态硬盘成为了更具实用性的产品。
虽然实现方式与此前已经上市的基于固态硬盘技术的PCIe存储系统加速卡略有不同,但固态硬盘成为存储系统“标配”的时代现在看来已经来临。
固态硬盘的“新玩法”就是EMC的FAST VP和FAST Cache技术。
其实CLARiiON 的FLARE 30就已经发布FAST VP与FAST Cache,关于FAST VP请参考《FAST VP for 统一存储 VNX 》,本文将探讨FAST Cache技术。
1.2 什么是FAST Cache在《FAST VP for 统一存储 VNX 》讲到,实现 AST 有两种不同方式:迁移与缓存。
基于缓存的 AST 使用广为人知的缓存方式将热数据“提升”到高性能的介质中。
由于 HDD 上仍保留有数据的副本,因此当数据变“冷”时,只需将其从缓存中释放即可,而不需要额外的 HDD I/O。
对应于VNX的FAST Cache。
简单说来,FAST Cache就是把系统内空闲的SSD(EMC称之为EFD),用来替代CLARiiON系统上的内存,当做一种数据高峰时在高速的系统内存底下一层的缓存来使用,而作为内存的补充,由于SSD也都是基于FLASH技术实现的,因此,速度也确实能够允许其在内存和磁盘间作为缓存来用。
2. FAST Cache与FAST VPFAST Cache与FAST VP最大的区别是其重新构建一个能满足高性能要求的Flash drive存储Cache区,重点关注性能,而FAST VP只是通过Pool来实现sub-LUN的分层,从而实现数据根据性能要求分布到存储的不同层,关注总使用成本(TCO)。
EMC建议整合FAST、FAST Cache和块级压缩技术,提升中端系统的性能:其区别如下:1.FAST VP最小单位是1 GB,而FAST Cache是64KB。
2.当数据被频繁访问时,将其从硬盘拷贝到Flash drives中,而FAST VP只是在不同层间移动.3. FAST Cache可以与FAST VP结合起来一起使用,比如,当数据已经正在移向或已经在Flash drive时就不必将其移动到FAST Cache,即使该数据块满足要提升到FAST Cache条件,从而避免浪费系统资源。
4.一般推荐是在存储中的Flash drive首先作为FAST Cache,但在某些情况下,如当IO块小于128KB时,因其读64KB需要多个IO次数来完成其提升时,建议用FAST VP方式5. 当FAST Cache处于degrade状态时,FAST Cache会变成只读。
性能层会通过快速提升64KB大小的chunk到FAST Cache,从而减少数据到FAST Cache的时间。
总结:从数据的角度来看,一般情况下,整个存储中只有一小部分空间提供了绝大多数的IO.数据分析表明一个卷的85%的IO量是由其15%的容量完成的。
这个15%的容量称贷为”工作区”,FAST VP和FAST Cache就是将这些”工作区”尽可能地保存在高性能的磁盘中。
OLTP环境下,”工作区”一般只占20%或更小的容量。
而对于DSS来说”工作区”会占大得多的容量。
这时一般就推荐用FAST VP而不是FAST Cache.3. FAST Cache 常见限制与要求∙It can be used on all CLARiiON CX4 storage systems running FLARE release 30or later. If you have a Celerra unified storage system, Data Movers need to be running Celerra version 6.0 or later (along with a back-end CX4 running FLARE 30) to see FAST Cache benefits.All models in the VNX series support FAST Cache.∙It leverages the strong history of Flash drives and uses existing Flash drives, Disk Array Enclosures, and back-end buses. Forexample, the Flash drives do not need to be inserted in a particular drive slot or on dedicated back-end buses.∙ A single FAST Cache instance per storage system serves as a system-wide resource. You can create and destroy the FAST Cache while the storage system and applications are online.∙When you create a FAST Cache, the Flash drives are configured as RAID 1 mirrors (redundant).∙Once a Flash drive has been used to configure FAST Cache, the entire Flash drive is dedicated to FAST Cache.∙FAST Cache can be applied to any LUN in a storage system. If a LUN (or component LUNs of a metaLUN) is created in a RAID group, FAST Cache is enabled or disabled at the individual LUN (or component LUN) level. If a LUN is created in a storage pool, FAST Cache must be configured at thepool level.4. FAST Cache 剖析4.1 FAST Cache 组件4.2 FAST Cache 工作原理FAST Cache不中:If FAST Cache is installed in the storage system and enabled on the LUN and/or pool, incoming I/O from the host application is checked against the FAST Cache memory map to determine if the I/O is for a data block that has already been promoted into FAST Cache or not. If the chunk is not in FAST Cache, the I/O request follows the same path it would follow if the storage system did not have FAST Cache.FAST Cache 命中:However, if the data chunk is in FAST Cache, the policy engine redirects the I/O request to the FAST Cache. If the host I/O request is for a read operation, and the target data is in the DRAM cache, the data is read from the DRAM cache. If the data is not in DRAM cache, the data is read from the FAST Cache Flash drives; it is also put in the DRAM cache (as it would be with reads from HDDs).If the host I/O request is a write operation for a data chunk that is in FAST Cache, the DRAM cache is updated with the new “write,” and an acknowledgement is sent back to the host. If DRAM write cache is not disabled for the HDD LUN, write operations usually go through the DRAM cache; the host data is not written directly to the FAST Cache Flash drives. When data needs to be moved out of DRAM cache, it is written to FAST Cache Flash drives. Since the data is written to Flash drives instead of HDDs, this operation is very fast and may help limit the number of dirty pages in the DRAM write cache. It should be noted that even when FAST Cache is installed in the storage system, the I/O operations are serviced directly from DRAM cache whenever possible.Data that is in FAST Cache and is used less frequently is copied back to the HDD from FAST Cache. This chunk of data must be re-promoted into FAST Cache to be serviced by the FAST Cache. Data on HDD that becomes busy is promoted to FAST Cache, which is an asynchronous process (does not block host I/O). Data promotion into FAST Cache depends on the number of accesses (read and/or write) within a 64 KB chunk of storage, and is not dependent on whether the data already exists in the DRAM cache or not.For example, assume a storage system receives an I/O request from an application right after FAST Cache is created on the storage system. In this scenario, the FAST Cache memory is empty since nothing has been copied into the FAST Cache.∙When the first I/O is sent by the application, the FAST Cache policy engine looks for an entry in the FAST Cache memory map for the I/O’s data chunk . Since the memory map is empty at this stage, the data is accessed from the HDD LUN. This is called a FAST Cache Miss. (We have found that the performance overhead of checking the memory map for every access to a FAST Cache enabled LUN is very minimal.) ∙If the application frequently accesses data in a 64 KB chunk of storage, the policy engine copies that chunk from the hard-disk LUN to FAST Cache. The memory map is updated to indicate that the data chunk is now resident in FAST Cache. This operation is calledPromotion and this period is called thewarm-up period for FAST Cache. The storage system controls this activity to make sure that the overhead for promotion does notexceed a specified percentage of the storage system capability.When the application accesses this data again, the policy engine sees that it is in the FAST Cache. This is called the FAST Cache Hit. Since the data is accessed directly from the Flash drives, the application gets very low response times and high IOPS. If a substantial part of the working set gets promoted to FAST Cache overa period of time, applications can see higher average performanceeven with lower performing HDDs in the back end.In certain situations, data is copied from FAST Cache back to the back-end HDDs. This is called a Write Back operation. The rate at which data blocks are written back to the HDD LUNs is controlled so that the process does not significantly impact storage system performance. Write Back operations happen in the event that a FAST Cache promotion is scheduled but there are no free or clean pages available in the FAST Cache. A “dirty” page will then be copied from the FAST Cache and written to the HDD LUN to make room for the new data. The LRU algorithm determines which data block is least likely to be accessed again and this block is processed to make room for the new promote.5. FAST Cache 的使用5.1 创建FAST Cache5.2 管理FAST Cache传统的Raid Group只能针对某一个LUN进行设置:Storage Pool 则是在Pool级别进行设置:。