常见问题解答EMC VPLEX 系列
EMC存储容灾种解决方案(专业方案)

• 与存储容量无关,未来扩容不需要额外增加License。
• 主、备阵列具有完全一样的数据。 • 可以从 EMC存储管理软件 Uisphere 软件中方便地管理
• 在阵列上操作并且对所有服务器和应用程序是透明的
• 当主阵列因故障宕机,预先写好的脚本切断两个阵列之间的复制关系,容灾中 心服务器启用(激活)容灾阵列,业务继续在容灾中心运行。最快可在几分钟 内将业务恢复。应用上对IP等需要做一定的调整。
S T
MirrorView/S 或 MirrorView/A 克隆 快照
快照
克隆
进行处理的本地和远程快照
S = 源 T = 目标
© Copyright 2010 EMC Corporation. All rights reserved.
9
MirrorView方案特点
• 基于存储层提供同步选项,性能较好。且不占用主机资源。
© Copyright 2010 EMC Corporation. All rights reserved.
10
成功案例
• • • • • • • • • • • • 厦门BRT 厦门大学附属中山医院 厦门卫生局 厦门嵩屿集装箱码头有限公司 厦门建行 厦门农行 七匹狼 劲霸 广发华福证券 福州传染病医院 广西民族医院 ( 2 * CX4-240) „„
© Copyright 2010 EMC Corporation. All rights reserved.
8
使用案例:使用 MirrorView 进行灾难恢复
灾难恢复整合(4:1 扇入)
MirrorView/S 或 MirrorView/A S S S S T T T T 集中式 数据中心 S S T2 T2 远程位置 灾难恢复 T1 T1 备份报告 决策支持 系统
vplex 运维及异构存储双活使用实例技术手册

vplex 运维及异构存储双活使用
实例技术手册
Vplex 运维及异构存储双活使用实例技术手册是一份详细介绍 Vplex
集群组件、硬件架构、存储卷、双活技术和逻辑封装流程等内容的文档。
以下是该手册的核心内容:
1. Vplex 集群组件和硬件架构:Vplex 集群组件都会预安装在DellEMC 机架上,其硬件架构的高可用性体现在以下的方面:
引擎:每个引擎都包含两个独立的控制器。
I/O 模块:每个控制器安装了四个 FC I/O 模块,分为两个前
端模块(连接主机)和两个后端模块(连接存储);另外还有两个
I/O 扩展模块,用于控制器间的数据路径和通信。
备用电源:每个引擎由一个 SPS 提供后备电源,在电源故障时
允许进行写缓存,防止数据丢失。
SAN 交换机:配置了两个 SAN 交换机用于集群内部控制器之间
的连接。
UPS:配备了 UPS 以避免短暂断电带来的业务停顿风险。
2. 存储卷:Vplex 的存储卷是通过 claim 存储阵列中的 LUN 生成的。
每个存储卷都可以被映射到一个或多个虚拟卷,只有虚拟卷才可以被
给前端主机访问。
其中有一种 Distributed 的方式,它是由不同集群的 Device 组成的。
3. 双活技术:Vplex 双活技术可以实现在多个站点间同时读写数据,以提高系统的可用性和性能。
同时,它还可以实现容灾和恢复功能,确保数据的完整性和可靠性。
4. 逻辑封装流程:在 VPLEX 存储纳管之后,还需要按照特定的逻辑封装流程来完成。
其中包括创建 extent、创建 device 和创建virtual volume 等步骤。
linux挂载EMC存储基本思路,常用命令及故障处理

linux挂载EMC存储基本思路,常⽤命令及故障处理------本博⽂素材取⾃于⽹络,加⼊了⾃⼰的操作经验,⽂中的软件需要和对应的EMC设备匹配,不能全部照搬本⽂!具体软件、设备型号可到EMC官⽅查询!对运⾏中的存储操作是需要谨慎的!本博⽂仅作参考,如果您按照此博⽂操作出现故障,与本博主⽆关,⼀切后果⾃负!------⼀、linux挂载EMC存储基本思路(redhat\centos):挂载存储有两种⽅式:光纤模式(hub卡)和iscsi (以太⽹)。
两者⼤体思路是⼀样的。
1、在linux应⽤服务器上安装hub卡,连接光纤到光纤交换机上;2、在linux应⽤服务器安装hub卡驱动程序,并查看本机hub的wwpn/wwnn号;也可以登陆到光纤交换机上,查看对应的HBA卡接⼊到光交的端⼝,端⼝会显⽰wwpn号【通过switchshow查询】;查看wwpn号: cat /sys/class/fc_host/host*/port_name查看wwnn号: cat /sys/class/fc_host/host*/node_name3、在linux应⽤服务器上需要安装Agent,安装后重起,EMC阵列才能发现主机;A、将Agent光盘放⼊服务器光驱,或通过U盘、FTP上传均可B、打开光盘或U盘所在⽬录,找到所在⽂件C、通过命令⾏或双击完成安装a. rpm –ivh NaviHostAgent-Linux-64-x86-en_US-6.29.5.0.66-1.x86_64.rpmb. 确认安装完成;4、在存储上连接linux应⽤服务器、并划出lun,选择存储⼤⼩;A、登陆emcB、先确认存储是否能够正确识别的主机,在存储上右键选择“connectivity status”.C、在connectivity status 界⾯查看是否已经正确识别主机HBA卡的WWND、对新识别的HBA卡进⾏注册,点击“Group Edit”,弹出Group Edit Initators界⾯,从Available ⾥⾯选择新的HBA卡,移⾄Selected筐内,输⼊正确的主机名和IP地址,确定E、回到Connectivity Status 检查所有HBA卡已经注册并且处于logged in状态。
EMC vplex Isilon DD存储备份双活系统实施方案

2016年3月目录1.项目实施内容 (5)1.1存储系统架构示意图 (6)1.3本项目设备硬件配置 (6)2.存储系统实施基础配置 (7)2.1双活数据中心存储实现模式 (7)2.2光纤通道交换机端口连接表 (8)2.3VPLEX端口作用描述 (9)2.4VPLEX端口的使用 (9)2.5存储设备线路连接描述 (9)2.6存储设备端口命名规则 (10)3.SAN存储规划 (10)3.1存储设备连接线缆数量及种类 (10)3.2存储设备IP地址配置 (11)3.3VPLEX的端口连接配置 (11)4.VPLEX METRO实施步骤 (12)4.1VPLEX前期准备 (12)4.1.1 system volumes (12)4.2S WITCH ZONING (13)4.3B ACKEND STORAGE PROVISIONQ (13)4.4VPLEX INITIAL SETUP (13)4.4.1 Configip address and hostname of VPLEX (13)4.4.1.1 Connect to management server (13)4.4.1.2 entering the VPLEXCLI (14)4.4.1.3 set the management server ipaddress (14)4.4.1.4 change the hostname of VPLEX (14)4.4.1.5 check software version (14)4.4.2 use EZ-setup to initialize the VPLEX1 (15)4.4.2.1 Start EZ-setup (15)4.4.2.2 Configure the first cluster (15)4.4.2.3 Chose the local authentication (15)4.4.2.4 Configure event notification (15)4.4.2.5 Configure send system report to EMC (16)4.4.2.6 Configure performance statistics collector (16)4.4.2.7 Generate the certificate (16)4.4.2.8 Backend storage discovery (17)4.4.2.9 create meta-data volume (17)4.4.2.10 verify if meta-data volume is successfully created (18)4.4.2.11 create meta-data volume backups (18)4.4.2.12 enable FE port (18)4.4.3 use EZ-setup to initialize the VPLEX2 (18)4.4.3.1 Connect to VPLEX2 (18)4.4.3.2 Sychronize the time on the clusters (18)4.4.3.3 Start EZ-setup on cluster2 (19)4.4.3.4 Configure the Meta-data volume and backup of VPLEX2 (19)4.4.3.5 Complete configuration of cluster1 (19)4.4.3.6 Complete configuration of cluster2 (19)4.4.4 Join the clusters (19)4.4.5 Create logging volumes (20)4.5C HECK THE CLUSTER HEALTH (21)4.6VPLEX BACKEND STORAGE CONNECTIVITY VERIFY (21)4.7C LAIM THE DA TA VOLUME (21)5.ISILON的实施步骤 (23)5.1集群初始化 (23)5.2节点加入 (37)5.3系统健康检查 (38)5.4O NE FS升级 (38)5.5安装补丁包 (38)5.6系统微码升级 (38)5.7硬盘微码升级 (38)5.8管理界面登录 (39)5.9保护级别设置 (39)5.10网络设置 (40)5.10.1 内网设置 (41)5.10.2 外网设置 (41)5.11目录认证服务 (41)5.12SMB共享规划 (41)5.13NFS共享规划 (43)6DATADOMAIN配置步骤 (45)6.1D A TA D OMAIN配置之前实施内容 (45)6.2D A TA D OMAIN VTL配置 (46)7存储设备的使用示范 (55)7.1操作流程 (55)7.2操作示例 (56)7.2.1 光纤交换机操作部分 (56)7.2.2 EMC VNX7600操作部分 (59)7.2.3 VPLEX 操作部分 (62)1.项目实施内容XX公司双活数据中心灾备项目采用EMC VPLEX METRO解决方案,实现院区主机房和灾备机房容灾。
EMCVPLEX安装实施实施方案

EMCVPLEX安装实施实施方案————————————————————————————————作者:————————————————————————————————日期:VPLEX-LOCAL的硬件配置信息此次安装的VPLEX-Local有单台台VPLEX组成,VPLEX的硬件配置如下:1)1个Engine2)2个Director,每个Engine由两个Director组成3)8个8Gb前端FC端口,每个Director包含一块前端FC卡,共4个8Gb的前端FC端口,由于交换机端口限制,本次使用4个前端FC端口(每个Directo上两个)。
4)8个8Gb后端FC端口,每个Director包含一块后端FC卡,共4个8Gb的后端FC端口。
本次使用4个前端FC端口(每个Directo上两个)5)4个可用的8Gb的VPLEX-Local级联FC端口,每个Director包含一块VPLEX-Local级联FC卡,共4个8Gb的级联FC端口,但是只有两个可用VPLEX-LOCAL的硬件介绍单台VPLEX的硬件布局VPLEX的ENGINE的硬件布局VPLEX-LOCAL的级联端口连接VPLEX-LOCAL拓扑结构VPLEX-LOCAL 的FABRIC 拓扑图Fabric Switch Engine power supplyManagement serverFabric SwitchVNX VNXVPLEX Host HostVPLEX-LOCAL 后端存储系统的配置VMAX_3358Vplex Meta volume ( >= 78GB, using 144GB )Vplex Meta volume backup ( >=78GB, using 144GB )VPLEX logging volume ( >=10GB, using 72GB )Host data volumeVMAX_0251HOST_BAKHOST_PRD VPLEX_0550VPLEX_0549Host data volumeHost data volumeMETA VOLUME的配置请注意每台VNX必须使用两个RG,每个RG各提供两个80G LUN。
[实用参考]Vplex产品及技术手册
![[实用参考]Vplex产品及技术手册](https://img.taocdn.com/s3/m/577589d4770bf78a65295484.png)
Copyright © 2011 EMC Corporation. All Rights Reserved.
Product and Technology Overview
1
VPLEX Product and Technology Details
VPLEX Terminology, Capabilities, and Use Cases
AccessAnywhere™ GeoSynchrony™ Metadata Volume Logging Volume
Upon completion of this lesson, you should be able to: • List and define common VPLEX terminology • Describe VPLEX architecture, capabilities, Local and Distributed
Provides the transparent cooperation and mobility between storage elements to enable data to be shared, accessed, and relocated transparently between two locations at synchronous distances.
The separation of information from physical storage media and location. Virtual Storage is not storage virtualization. It allows the seamless mobility between the data center and cloud.
vplex中文文档
1
主要内容
• 解决方案总览及总体架构
• 方案构成和配置
– EMC VPLEX Metro – EMC RecoverPoint – Oracle 数据库 – Brocade 网络 – EMC 存储设施
• 测试论证
• 总结
© Copyright 2012 EMC Corporation. All rights reserved.
心提供低成本的灾难恢复
VPLEX
7*24 业务 可用性 简化的高可用性管理 自动故障处理和负载平衡 无故障修复时间 简化Oracle RAC 在远距离集群上的部署 通过一致性组群,对于对个数据库和应用可以像单个一 样提供保护 提高基础设施可用性
带有RecoverPoint功能的VPLEX
灾难恢复时恢复点达到最晚 集成的恢复点分离器 连续的数据保护 连续的远程备份 连续的本地和远程备份 能够按照需求保护和恢复任一时间点数据
Brocade MLXe core routers
Brocade VDX 6720 in VCS mode Brocade DCX 8510 Backbones Brocade 5100 switches
© Copyright 2012 EMC Corporation. All rights reserved.
5
方案架构 (VPLEX 上的 Oracle 远程 RAC)
© Copyright 2012 EMC Corporation. All rights reserved.
6
Brocade 网络基础设施
IP network
SAN
© Copyright 2012 EMC Corporation. All rights reserved.
VPLEX虚拟化引擎 vs SF
1.VPLEX 概述:Vplex 是EMC 新一代云存储虚拟化引擎,按照功能分为vplex local版本(本地数据中心), vplex metro版本(同城范围), vplex geo版本(洲际范围)。
在本地数据中心版本中,vplex local 实际就一个标准的基于SAN的存储虚拟化引擎(机头)。
2.vplex特点与优势:Vplex local 基于SAN网络实现存储虚拟化,通过集中的存储虚拟化提供,方便上层主机的连接使用,同时也方便下层物理存储的扩展和调整。
3.Vplex 局限与不足:1)从逻辑结构上看,vplex在主机和物理存储间构建一层虚拟化存储层是典型的带内(in-band)模式,势必形成一个新的故障单点,一旦vplex故障将导致后端所有物理存储全部无法访问从而造成全面的业务停顿,此时即使手工重新挂接底层物理存储也会造成较长的停机时间, 同时还存在底层物理存储数据与主机上vplex虚拟化后格式不兼容问题从而数据无法使用的潜在风险;2)vplex硬件采用工业标准的中端X86架构,同时基于其带内模式(in-band),其架在高端的物理阵列之前,无论从连接通道数、还是内存数量及CPU能力都低于后端的高端盘阵从而实际降低后端高端盘阵性能,这样势必形成新的性能瓶颈。
3)Vplex 仅支持有限的异构存储,大规模存储虚拟化实际效果有限;4)Vplex 仅是一个集中式的存储虚拟化解决方案,要么全部虚拟化,要么不虚拟化,无法回退,架构存在较大风险;无法实现像分布式虚拟化方案那样可随着业务发展逐步实施从而降低风险。
5)Vplex 仅仅实现了存储的虚拟化,防范了存储的单点故障保证其连续运作,但并没有防范主机故障,无法保证主机故障时应用的高可用性,因而也无法实现后续的容灾扩展建设;6)Vplex 仅在块设备层实现存储虚拟化,没有提供上层的优化的集群文件系统,在运行如RAC数据库时只有回退到使用原始的、难以管理的裸设备或ASM,管理复杂、效率低。
EMC VPLEX Local、Metro和Geo存储虚拟化初探
EMC VPLEX Local、Metro和Geo存储虚拟化初探去年4月,EMC发布了VPLEX 5.0,在Local和Metro的基础上又增加了Geo的功能,Geo支持的round-trip time (RTT)时延最大50ms(异步复制)。
它的最大概念也是适用于云环境,通过它整合后端的异构存储并提供地域上分布式资源的全局整合。
三种模式(1) VPLEX Local,1个cluster;(2) VPLEX Metro,2个cluster,同步复制的RTT最大5ms(大致在100 公里或60英里的范围内),同时提供一种奇异的能力,B集群不需要自己的磁盘阵列而可以直接把A集群的LUN呈现给服务器,支持使用write-through caching在2个集群间镜像数据的同步分布式卷;(3) VPLEX Geo,2个cluster,异步复制的RTT最大50ms,支持使用write-back caching 在任意位置访问的分布式镜像(AccessAnywhere distributed mirroring)。
除了异构虚拟化和复制功能之外,它的最大卖点就是AccessAnywhere的能力把任何一个站点(site)的数据做全局化的统一呈现,让任何一个站点的服务器/用户可以访问,这非常适合云的概念,也是EMC收购它的主要原因。
一个集群包括(1) 1个VPLEX Management Console;(2) 1、2、4个engine,4个engine的最大IOPS 2.24Million,最大带宽23.2GB/s;(3) 每个engine配置有1个standby power supply。
如果超过1个engine,集群中必须包含(1) 1对SAN Switch(2) 每个switch配有1个UPS。
Metro和Geo可以选择包括1个Witness,这是1个虚机(需要VMware ESX)并安装在不同于任何1个集群的fault domain中,也就是部署在A和B以外的其它站点,它起到一个监控的作用,当站点失效或者站点间通讯中断时维持系统的可靠性。
emc vplex 培训大纲
一、课程介绍1.1 课程目标- 本课程旨在帮助学员深入了解 EMC VPLEX 存储虚拟化解决方案,并掌握其实施、管理和故障排除技能。
1.2 课程对象- 适合具备存储管理基础知识和经验的存储管理员、系统管理员和技术支持人员参加。
1.3 预期效果- 学员将能够熟练使用 EMC VPLEX 软硬件产品,在实际工作中解决存储虚拟化方面的问题,提高存储资源的利用率和性能。
二、课程大纲2.1 EMC VPLEX 概述- 理解 EMC VPLEX 的背景和概念,掌握其核心功能和优势。
2.2 VPLEX 架构与原理- 了解VPLEX 系统架构和工作原理,包括集裙模式、前端和后端端口、本地和远程存储服务等方面。
2.3 VPLEX 部署与配置- 学习VPLEX 的部署前准备工作、硬件环境要求,以及各种配置任务,包括 LUN 映射、卷映射等。
2.4 VPLEX 管理与监控- 掌握 VPLEX 的管理和监控方法,包括本地和远程管理、监控指标和日志查看等内容。
2.5 VPLEX 数据保护与故障排除- 学习 VPLEX 的数据保护策略,包括快照、镜像、复制等功能,以及故障排除的方法和流程。
2.6 VPLEX 性能优化与调优- 了解VPLEX 的性能监测与分析,掌握性能优化和调优的方法和技巧。
三、教学方式3.1 理论讲授- 结合 PPT、案例分析等教学方式,详细解读 EMC VPLEX 的理论基础和实际应用。
3.2 案例实践- 聘请经验丰富的实战讲师进行实际案例演练,帮助学员加深理解、巩固知识。
3.3 认证考核- 理论知识和实际操作相结合的认证考核方式,确保学员的学习成果和实际应用能力。
四、师资力量4.1 主讲老师- 聘请 EMC 公司资深技术专家担任主讲老师,具有丰富的实战经验和教学经验。
4.2 助教团队- 精选具备 EMC VPLEX 认证的助教团队,协助学员进行案例训练和实践操作指导。
五、学员支持5.1 学习资料- 提供全面的学习资料,包括教材、案例分析、参考资料等,便于学员复习和进一步学习。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
常见问题解答:EMC VPLEX 系列目录•概述•GeoSynchrony 5.1 提供哪些新增功能?•硬件•一般产品信息•定位•竞争概况•订购、组装和许可•保修与服务概述问:什么是 VPLEX 系列?答:目前世界上唯有 VPLEX 系列包含的产品可在数据中心内、跨数据中心和在数据中心之间实现信息的移动和访问。
VPLEX 系列包括:•VPLEX Local,用于管理单个 VPLEX 群集内各异构存储阵列间的数据移动和访问•VPLEX Metro,用于在同步距离内(往返延迟最多 5 毫秒)的两个VPLEX 群集之间通过 Federated AccessAnywhere 移动和访问数据•VPLEX Geo,用于在异步距离内(往返延迟最多 50 毫秒)的两个 VPLEX 群集之间通过 Federated AccessAnywhere 移动和访问数据这些解决方案相结合,就能实现在数据中心内部和彼此之间的移动性、可用性和协作。
问:VPLEX 体系结构由哪些组件组成?答:每个 VPLEX 群集包含以下两个主要组件:•VPLEX Engine:VPLEX Engine 基于 EMC 强健、经验证且具备最高可用性的存储硬件平台,并充分利用每个引擎的两个高可用性控制器、冗余电源、集成的备用电池,以及“call home”和远程支持。
目前有两种硬件选项可供选择,即 VS1 和 VS2。
与相似引擎计数的 VS1 相比,VS2 可提供显著的性能增强。
•GeoSynchrony 提供了基本操作环境,可实现 N+1 群集、无中断硬件和软件升级,以及虚拟化存储的能力。
GeoSynchrony 5.1 提供哪些新增功能?问:GeoSynchrony 5.1 包括哪些新功能?答:GeoSynchrony 5.1 增加了以下功能:•VPLEX RecoverPoint 拆分器:可为 VPLEX Local 和 VPLEX Metro 实现增强的操作恢复和灾难恢复•VMware 集成:VAAI 比较和写入、基于 VASA vCenter 的管理•扩展:对于 VPLEX Local 和 VPLEX Metro,每个群集可扩展为 1,600 个启动器•I/O 性能增强:IOPS 提高达 30%(取决于工作负载)•Unisphere for VPLEX 和 GUI 增强功能:与其他 EMC 产品具有更一致的新观感、简化的导航、快速访问任务•性能监控:增强的性能统计信息•联合安全保护:符合 FIPS 140-2(阶段 1);IPv6 1 级•可从 VS1 无中断升级到 VS2问:我的客户能否将 EMC RecoverPoint 与 VPLEX 搭配使用?答:将 VPLEX Local 或 VPLEX Metro 与 GeoSynchrony 5.1 搭配使用的客户现在可以充分利用全新的VPLEX RecoverPoint 拆分器,创建生产数据的本地或远程副本,以用于操作或灾难恢复目的。
RecoverPoint 3.5 支持该拆分器。
问:VPLEX Metro 是否支持 EMC CLARiiON 或 EMC VNX 系列上的 RecoverPoint 拆分器?答:GeoSynchrony 5.1 不支持上述拆分器。
仅支持将 VPLEX Metro 与 GeoSynchrony 5.0 及更低版本搭配使用的客户。
问:VPLEX Geo 是否支持 VPLEX RecoverPoint 拆分器?答:不支持。
目前只有 VPLEX Local 和 VPLEX Metro 配置支持 VPLEX RecoverPoint 拆分器。
问:我是否可以使用 RecoverPoint 从本机复制我的 EMC 阵列?答:不可以。
使用 VPLEX Local 和 VPLEX Metro 并运行 GeoSynchrony 5.1 或更高版本的客户必须使用 VPLEX RecoverPoint 拆分器进行 RecoverPoint 虚拟卷的复制。
问:什么是 Unisphere for VPLEX?答:Unisphere for VPLEX 是一个将 VPLEX Management Console 功能与 Symmetrix Performance Analyzer 功能整合在同一产品中的高级 GUI。
问:VPLEX GUI 为何更名为 Unisphere?答:Unisphere 使用与 VNX 和 VMAX 平台相同的 GUI 框架,并为客户提供相同的 EMC 标准观感。
此次更名可以简化、标准化和整合 EMC 的管理工具,为 EMC 客户提供便利。
硬件问:VPLEX 的硬件选项是什么?答:目前有两种版本的硬件可供选择:VS1 和 VS2。
VS2 是最新的硬件平台,具有以下特点:•更快的 Intel 多核处理器•更节省空间的引擎(2U 而不是 4U)•10 GbE 群集间连接•更快的 PCI Gen 2,能提高每秒 I/O 和带宽•可安装在客户提供的机架中与 VS1 一样,VS2 也提供单引擎、双引擎和四引擎配置。
GeoSynchrony 5.1 同时支持VS1 和 VS2 硬件平台。
现在您还可以选择从 VS1 无中断升级到 VS2。
问:VPLEX Engine 的缓存选项是什么?答:每个 VPLEX Engine 都有固定的 64 GB(原始)缓存(每个控制器各有 32 GB 原始缓存,其中有超过 20 GB 用于读缓存)。
问:VPLEX 如何针对不同大小的环境进行扩展和缩减?答:VPLEX Local 从以极低的入门价位提供最小、最基本的系统起步,视需要进行扩展和缩减。
基本的 VPLEX Local 配置是单个引擎(两个控制器),面向较小型环境,在此配置下可管理的容量最多为 10 TB。
只需增加更多引擎即可对它进行扩展,每个群集最多可增加到四个引擎(总共八个控制器)。
这种四引擎配置是为较大型环境设计的。
基本配置和较大型配置所提供的软件功能和容量是相同的。
增加更多引擎会为客户提供更高的恢复能力(具备更多的故障切换 VPLEX 单元)和更高的处理能力(形成分布式工作负载,有更多的缓存分布到更多的 VPLEX 单元)。
问:我能销售三引擎 VPLEX Local、Metro 或 Geo 群集吗?答:不可以。
VPLEX 群集仅提供单引擎、双引擎和四引擎配置。
群集在运输时将预装在已完成适当线缆连接的标准 EMC 机架中,或者安装在客户提供的符合 VPLEX 机架要求的机架中。
一般产品信息问:VPLEX Metro 和 VPLEX Geo 中支持在两个群集间采用哪些距离扩展技术?答:对于前端和后端 SAN 连接,VPLEX 硬件仅支持光纤通道协议。
对于VPLEX Metro,有两个群集间连接选项:光纤通道和 IP。
对于光纤通道,群集间的连接协议采用的是基于暗光纤的光纤通道,另外也支持 DWDM(密集型波分多路复用)。
此外,VPLEX Metro 还支持两个群集之间的 IP 光纤通道。
对于 Metro IP 连接,群集间的连接是通过 IP 实现的 UDT(基于 UDP 的数据传输),并具备以合作伙伴为基础的 WAN 优化支持。
对于VPLEX Geo,群集间的连接是通过 IP 实现的 UDT(基于 UDP 的数据传输),并具备以合作伙伴为基础的 WAN 优化支持。
问:VPLEX 支持多少个卷 (LUN)?答:VPLEX Local 最多支持 8,000 个 LUN。
一个 VPLEX 群集包含一到四个引擎。
尽管增加引擎并不会提高最大 LUN 数量,但性能、端口数量、可用缓存和内存资源都会随之增加。
VPLEX Metro 和 VPLEX Geo 还支持每个 VPLEX 群集上拥有最多 8,000 个 LUN,因此两个 VPLEX 群集间的总量可达 16,000。
在两个 VPLEX 群集间每共享一个 LUN,就会从这两个 VPLEX 群集中各减去一个 LUN 位置。
例如,假如两个 VPLEX 群集之间共享了 2,000 个 LUN,则每个群集将支持 6,000 个非共享 LUN。
每个群集中存在的 LUN 总数始终限制在 8,000 以内。
问:VPLEX Metro 和 Geo 目前支持哪些基于主机的群集软件和群集文件系统?答:主机群集支持和认证包括在同步和异步距离上对 Microsoft Cluster Server (MSCS) 和Cluster Shared Volumes (CSV) 以及各种群集化文件系统(Symantec Veritas Cluster FileSystem、Oracle Cluster File System (OCFS)、Sanbolic Melio)的支持。
请参阅最新版的“Simple Support Matrix:EMC VPLEX and GeoSynchrony”(简单支持列表:EMC VPLEX 和 GeoSynchrony),以获得已完成认证的虚拟服务器和群集化文件系统的完整列表。
问:VPLEX Local、Metro 和 Geo 支持其他哪些操作系统、交换机和阵列?答:请参阅最新版的 E-Lab“Simple Support Matrix:EMC VPLEX and GeoSynchrony”(简单支持列表:EMC VPLEX 和 GeoSynchrony),以确定支持的配置。
Simple SupportMatrix 以一种结构紧凑且便于参考的格式提供关键的支持信息。
另外,整个阵列和基础架构系列还通过基于最常见配置和可用版本软件的测试接受鉴定,从而简化了流程。
Simple Support Matrix 将提升配置支持的灵活性,并增强 EMC 对认证请求的响应能力。
此列表将每月进行更新。
问:VPLEX 支持的最大存储卷大小和虚拟卷大小是多少?答:卷大小方面不存在已知的限制。
当前测试的最大存储卷大小和虚拟卷大小为 36 TB。
问:什么是 VPLEX Witness,客户为什么需要它?答:VPLEX Witness 是在客户提供的 VMware ESX Server 上运行的虚拟机,它位于与两个 VPLEX 群集(Metro 或 Geo)不同的故障域中。
VPLEX Witness 使用 IP 连接监视两个 VPLEX 群集之间的系统“心跳”信号。
通过监视这些心跳信号,VPLEX Witness 可以区分站点故障和站点分区。
VPLEX Witness 让应用程序能够承受任何存储故障的影响,包括同时影响整个存储设备机架的故障。
VPLEX Witness 与服务器群集软件和 Federated Access Anywhere 相结合,形成了一套端到端的解决方案,允许在服务器出现故障时自动重启。