vplex vnx方案

合集下载

vplexvnx方案

vplexvnx方案

vplexvnx方案第1章IT建设方案说明1.1服务器部分说明数据库服务器采用两台X3850X5服务器,通过ROSEHA实现高可用双机环境。

应用服务器采用3台X3650M4服务器。

1.2存储部分说明新购VNX5100存储,建立统一存储资源环境,用于集中存放核心数据库数据。

采用两台24口交换机(激活16口)构建SAN网络,数据库服务器通过SAN 网络访问VNX5100磁盘阵列,提供高速,安全,稳定的链路环境。

1.3存储高可用说明配置VPLEX存储虚拟化引擎,建立数据中心内部存储高可用架构平台,消除磁盘阵列的单点故障,保证核心数据库业务连续性要求,当出现硬件故障时,无需人为参与切换,高可用平台自动进行调整保证核心业务不会中断。

并且提供动态资源调度,能够灵活的进行管理,提高整体应用平台的弹性。

第2章IT存储系统详细设计2.1存储基础架构图2.2核心存储设计针对客户的需求,推荐使用一台EMC VNX系列统一存储产品作为数据库的核心存储。

VNX是EMC新一代的中端存储产品,它将Celerra (NS) 和 CLARiiON (CX4) 统一到单个产品品牌中,将 Celerra 和 CLARiiON 的所有价值推广到VNX 系列的客户。

它面向要求高级功能、灵活性和可配置性的中端和企业存储环境。

VNX 系列在效率、简洁性和性能上有巨大的进步。

VNX 建议配置如下:VNX5100磁盘阵列:双SAN控制器,8G高速缓存,4个8Gb FC前端口,配置4个6Gb四通道SAS磁盘接口,14块 600GB 15000转SAS硬盘。

配置图形化管理软件Unisphere。

配置说明:使用了600GB 15000转的SAS盘(核心数据库数据),同样类型硬盘做RAID5数据保护,并且配置了hot spare热备盘,提升磁盘阵列的可靠性和安全性;配置容量足以支持客户现有业务发展和数据增长;同时通过8Gb/s FC光纤链路将磁盘阵列两个控制器的FC主机端口分别与两台FC光纤交换机相连,实现磁盘阵列的链路冗余和负载均衡;通过基于WEB的阵列管理软件Unisphere可以在单一WEB管理界面实现存储管理和监控,操作简单易懂。

EMCVPLEX数据中心虚拟化方案

EMCVPLEX数据中心虚拟化方案

02
方案设计
根据需求分析结果,设计符合客户需 求的虚拟化方案,包括资源分配、网 络设计、安全策略等。
01
03
安装部署
根据设计方案进行虚拟化软件的安装 和硬件资源的配置。
上线运行
将虚拟化系统正式投入使用,并进行 长期的监控和维护。
05
04
系统调试
对安装好的虚拟化系统进行调试,确 保系统的稳定性和性能。
实施效果
通过虚拟化方案的实施,该企业的数据中心性能得到了显著提升,同时降低了运营成本, 提高了服务质量和可靠性。容灾备份方案的实施也确保了数据的安全性和业务的连续性。
06
EMC Vplex未来展望与 总结
Vplex未来发展趋势
扩展性
Vplex继续提供更高的可扩展性,以满足不 断增长的数据需求。
安全
04
EMC Vplex解决方案详 解
Vplex数据中心架构
架构概述:Vplex数据中心架构是一种高 度可扩展的虚拟化平台,旨在提高数据 中心的效率、灵活性和可用性。
多租户支持:Vplex支持多租户隔离,为 不同业务部门提供独立的资源池。
分布式架构:Vplex采用分布式架构,可 扩展至数千个节点,满足大型企业的需 求。
02
数据中心虚拟化概述
什么是数据中心虚拟化?
数据中心虚拟化是一种将物理服务器和基础设施资源抽象成逻辑资源的技术,它 允许在一个物理服务器上运行多个虚拟机,每个虚拟机都有自己的操作系统和应 用程序。
数据中心虚拟化通过软件定义的网络和存储技术,将网络和存储资源划分为可动 态分配的虚拟机,从而提高了服务器的利用率,简化了管理流程,并降低了运营 成本。
纵向扩展:Vplex支持 纵向扩展,通过升级硬 件设备提高单节点的性 能和容量。

来认识下EMC的VMax,VPlex和VNX产品吧

来认识下EMC的VMax,VPlex和VNX产品吧

来认识下EMC的VMax,VPlex和VNX产品吧EMC的存储产品从来没有简单过,过去的时候,像Symmetrix,Centera,CLARiiON这样的名字,虽然听起来神神秘秘的,却是存储产品高级和专业的象征,统治着企业存储世界。

现在,可能是存储虚拟化技术的影响越来越大,企业部署的虚拟机越来越多,EMC的存储产品也越来越多的考虑与虚拟化技术结合。

或许正是因为这个原因,EMC推出名字里加V(也许象征虚拟化)的VPlex,VMax和VNX等一系列产品。

但是对于那些想买存储产品的用户,复杂的产品列表让他们眼花缭乱,EMC推出了太多的产品,用户很难分清了。

即便EMC提供了详细的产品选择下拉列表,却仅仅是把一大堆产品的范围缩小了。

现在,让我们认识下EMC主要的产品吧,至少能够分辨V系列产品的不同点。

虽然EMC现在推出了许多产品,但是这些产品仍然是企业存储领域的中流砥柱。

VMax虽然这款产品现在的官方称呼为VMax,EMC有时也在网站上称其为EMC Symmetrix VMax。

但是在今年的EMC World大会上,却没有再使用Symmetrix这个称呼。

但Symmetrix毕竟是EMC基于模块的存储阵列生产线的标志。

在过去的几年里,它逐渐转变为VMax,加入了更多的虚拟化和云的特色。

Symmetrix这个绰号最终会消失吗?只有时间能告诉我们了。

VNXVNX是EMC的文档和块存储统一平台,代表了CLARiiON和Celerra两条生产线的融合,有三个不同的种类。

VNXe虽然一直处于中小企业市场高端产品的位置,但却是专为中小企业设计的。

VNX拥有高性能,为中端统一存储设计。

VNX gateway在现有的EMC模块存储产品中加入了NAS功能。

最近,EMC推出了VNXe3150存储系统,性能和容量提升了50%。

EMC还降低了闪存的价格并加入了快照选项。

企业战略组的分析家Mark Peters说:“EMC对其VNX统一存储产品进行维护,发现并改进了许多不足。

EMCVPLEX安装实施计划方案

EMCVPLEX安装实施计划方案

VPLEX-LOCAL 的硬件配置信息此次安装的VPLEX-Local有单台台VPLEX组成,VPLEX的硬件配置如下:1) 1 个Engine2) 2 个Director,每个Engine 由两个Director 组成3)8个8Gb前端FC端口,每个Director包含一块前端FC卡,共4个8Gb的前端FC端口,由于交换机端口限制,本次使用4个前端FC端口(每个Directo上两个)。

4)8个8Gb后端FC端口,每个Director包含一块后端FC卡,共4个8Gb的后端FC端口。

本次使用4个前端FC端口(每个Directo上两个)5)4个可用的8Gb的VPLEX-Local级联FC端口,每个Director包含一块VPLEX-Local级联FC卡, 共4个8Gb的级联FC端口,但是只有两个可用VPLEX-LOCAL的硬件介绍单台VPLEX的硬件布局VPLEX的ENGINE的硬件布局Note:SPS = Standby Power SupplyVPLEX-LOCAL 的级联端口连接Cluster 1(sama connections from each engine in clusterCluster 2^same connections from each engine in duster)int&ncluste r i 一 COM SAN —switch 1BinlorcluslorCOM SAN >switch 20 —VPLEX-LOCAL 拓 扑结构=1B2TC00 A2-FOOOB2-FC01A2-FO01int&rciuster ISL 1 inierciusierCOM SAN COM SAN switch 1A switch 2AB2 FC00 A2 FCOONOTE: ISLTisIntar-switcli linkB2-FOO1 A2-FC01IOM BO IOM 81IOM B2 / IOM B3一口口口 DO 口口口吕吕 。

VTM系统生产存储vplex实施方案

VTM系统生产存储vplex实施方案

VTM生产系统存储更换实行方案目录实行过程概述............................................................................................... 错误!未定义书签。

1VTM系统设备接入生产环境............................................................................. 错误!未定义书签。

1.1VTM系统连接示意图........................................................................... 错误!未定义书签。

1.2SAN互换机端口分派示意图................................................................ 错误!未定义书签。

1.3SAN互换机ZONE配置......................................................................... 错误!未定义书签。

通讯规定......................................................................................... 错误!未定义书签。

Zone配置 ....................................................................................... 错误!未定义书签。

2实行前旳准备工作....................................................................................... 错误!未定义书签。

EMC_VPlex存储双活建设方案详细

EMC_VPlex存储双活建设方案详细
安信电脑系统(中国)有限公司
2012年11月
一、
目前XXX市社保已经在使用EMC的存储系统VNX5100,为了进一步保障社保应用的高可用性,提高生产的安全级别,XXX市社保计划对目前的存储系统进行虚拟化整合,并搭建双活存储系统,保证关键业务所使用的存储系统即使有一台存储系统出现故障,也不会出现业务停顿,达到更高的生产安全保障。
VNX 7500还支持LUN的条带化或级联式扩展,以将数据分散到更多的磁盘上;
C.中心机房-存储虚拟化:以EMC VPlex Local作为存储虚拟化;应用系统只需要访问虚拟化存储,而不需要直接管理后端的具体的存储系统;通过存储虚拟化,可以达到两台存储之间双活,可以支持异构的存储系统,对数据进行跨存储的本地及远程保护,统一管理接口和访问接口;
当应用系统读数据时,VPlex采用了AccessAnywhere技术,应用系统只需要就近访问最近的一台存储系统即可,可以大大节省两个数据中心之间的网络传输带宽;
当存储系统故障时,VPlex采用的Active-Active技术,结合服务器的集群文件系统(Cluster File System ),可以保证应用实时切换到容灾中心,而不需要人工操作,保证了业务系统的高可用性,大大缩减了故障切换时间。
当VPlex系统自身出现故障时,由于在Vplex中的设置,VPlex不会修改存储系统LUN的配置信息,即,用户可以将存储系统A或B的LUN直接挂到应用系统,保证应用系统的继续运行,不会产生数据丢失。
2.
VPlex在提供虚拟化的存储访问的同时,还可以方便地对存储容量进行扩展。当一台存储系统出现空间不足的情况时,可以通过VPlex的虚拟卷,将多台存储系统的空间组成一个卷给应用使用。通过这种级联方式,应用系统直接访问VPlex的虚拟卷,而VPlex后端接入的存储系统只是作为VPlex虚拟卷的存储资源池使用,达到资源的更合理分配和优化。

EMCVPLEX安装实施实施方案

EMCVPLEX安装实施实施方案

EMCVPLEX安装实施实施方案————————————————————————————————作者:————————————————————————————————日期:VPLEX-LOCAL的硬件配置信息此次安装的VPLEX-Local有单台台VPLEX组成,VPLEX的硬件配置如下:1)1个Engine2)2个Director,每个Engine由两个Director组成3)8个8Gb前端FC端口,每个Director包含一块前端FC卡,共4个8Gb的前端FC端口,由于交换机端口限制,本次使用4个前端FC端口(每个Directo上两个)。

4)8个8Gb后端FC端口,每个Director包含一块后端FC卡,共4个8Gb的后端FC端口。

本次使用4个前端FC端口(每个Directo上两个)5)4个可用的8Gb的VPLEX-Local级联FC端口,每个Director包含一块VPLEX-Local级联FC卡,共4个8Gb的级联FC端口,但是只有两个可用VPLEX-LOCAL的硬件介绍单台VPLEX的硬件布局VPLEX的ENGINE的硬件布局VPLEX-LOCAL的级联端口连接VPLEX-LOCAL拓扑结构VPLEX-LOCAL 的FABRIC 拓扑图Fabric Switch Engine power supplyManagement serverFabric SwitchVNX VNXVPLEX Host HostVPLEX-LOCAL 后端存储系统的配置VMAX_3358Vplex Meta volume ( >= 78GB, using 144GB )Vplex Meta volume backup ( >=78GB, using 144GB )VPLEX logging volume ( >=10GB, using 72GB )Host data volumeVMAX_0251HOST_BAKHOST_PRD VPLEX_0550VPLEX_0549Host data volumeHost data volumeMETA VOLUME的配置请注意每台VNX必须使用两个RG,每个RG各提供两个80G LUN。

vplex_双活数据中心项目解决方案

vplex_双活数据中心项目解决方案
实现应用程序24x7正常运行
连续可用性
易于安装和配置
最佳性能
Federated AccessAnywhere
VPLEX WITNESS
主动
主动
站点 1
站点 2
站点 3
不降低性能地扩展
仍可用于非 RAC 服务器
Extended Clusters for Continuous Application Availability
Array Replication
VPLEX 改变了这一切
… 它令用户在两个数据中心: 同时读写同一份数据 启动同一个应用程序 让客户端随时随地访问
VPLEX 分布式存储双活架构
给远距离的两个数据中心提供一个共享的存储,两边都能同时读写同一份数据 支持所有主流操作系统cluster技术-IBM,HP,SUN,LINUX,MICROSOFT,SYMANTEC 强大的高可用性和灾备解决方案 确保存储100%可用
Array Replication
Traditional Active – Passive Solution
Extended Clusters for Continuous Application Availability
Oracle RAC With VPLEX
Active Failure Domain
Zero impact to user experience
可用性:VPLEX Witness + 跨群集连接
VPLEX Witness 协调无缝故障切换 支持更长距离的延伸服务器群集 为存储更改或事件提供零 RTO 跨群集连接 最适合较短的距离 利用多路径软件 在更高的主机可用性和 CPU 周期之间进行权衡 减少服务器故障切换
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第1章IT建设方案说明
1.1服务器部分说明
数据库服务器采用两台X3850X5服务器,通过ROSEHA实现高可用双机环境。

应用服务器采用3台X3650M4服务器。

1.2存储部分说明
新购VNX5100存储,建立统一存储资源环境,用于集中存放核心数据库数据。

采用两台24口交换机(激活16口)构建SAN网络,数据库服务器通过SAN 网络访问VNX5100磁盘阵列,提供高速,安全,稳定的链路环境。

1.3存储高可用说明
配置VPLEX存储虚拟化引擎,建立数据中心内部存储高可用架构平台,消除磁盘阵列的单点故障,保证核心数据库业务连续性要求,当出现硬件故障时,无需人为参与切换,高可用平台自动进行调整保证核心业务不会中断。

并且提供动态资源调度,能够灵活的进行管理,提高整体应用平台的弹性。

第2章IT存储系统详细设计
2.1存储基础架构图
2.2核心存储设计
针对客户的需求,推荐使用一台EMC VNX系列统一存储产品作为数据库的核心存储。

VNX是EMC新一代的中端存储产品,它将 Celerra (NS) 和 CLARiiON (CX4) 统一到单个产品品牌中,将 Celerra 和 CLARiiON 的所有价值推广到VNX 系列的客户。

它面向要求高级功能、灵活性和可配置性的中端和企业存储环境。

VNX 系列在效率、简洁性和性能上有巨大的进步。

VNX 建议配置如下:
VNX5100磁盘阵列:双SAN控制器,8G高速缓存,4个8Gb FC前端口,配置4个6Gb四通道SAS磁盘接口,14块 600GB 15000转SAS硬盘。

配置图形化管理软件Unisphere。

配置说明:
使用了600GB 15000转的SAS盘(核心数据库数据),同样类型硬盘做RAID5数据保护,并且配置了hot spare热备盘,提升磁盘阵列的可靠性和安全性;配置容量足以支持客户现有业务发展和数据增长;同时通过8Gb/s FC光纤链路将磁盘阵列两个控制器的FC主机端口分别与两台FC光纤交换机相连,实现磁盘阵列的链路冗余和负载均衡;通过基于WEB的阵列管理软件Unisphere可以在单一WEB管理界面实现存储管理和监控,操作简单易懂。

VNX存储优势说明:
新一代信息中心需要多种协议的支持以满足不同用户的需求,EMC统一存储支持多协议(光纤协议,iSCSI和IP SAN等)的访问,减少了同时购买多个存储设备的费用,使信息中心管理员能方便的使用多种连接方式提供存储服务,提高存储的利用率。

同时利用SAN网络和双控制器实现SAN网络访问的负载均衡和流量控制,降低了虚拟化整合后存储IO访问冲突导致的性能问题。

在存储内部,利用响应极快15000转SAS磁盘(180 IOPS)满足核心数据库的读写性能。

VNX虚拟资源调配可以提供优于传统“精简”资源调配的更多好处,包括简化存储管理和改善容量利用率,VNX虚拟资源调配让您能够向主机呈现大容量,然后仅按需使用共享池中的空间。

这通过减少最初的存储容量过度分配降低了总体拥有成本 (TCO),并且通过减少支持增长所需的步骤简化了管理。

2.3业务连续性方案设计
EMC VPLEX技术是存储系统虚拟化和数据中心扩展的技术核心,此技术可以让数据库服务器实现最高的业务连续性,特别适合数据库在存储层进行数据切换而实现业务不停滞的特点。

EMC VPLEX 技术是用户实现存储需拟化的核心技术,是在把传统的物理数据中心转化为虚拟数据中心,最终实现云数据中心的核心技术。

为此将VPLEX 技术引入存储高可用的方案中,通过VPLEX实现目前生产中心的本地高可靠,两个存储可以实现MIRROR,以后如果需要还可以再增加存储到这个资源池,多个存储可以实现条带化,形成存储资源池,主要目的是让应用程序不被存储系统绑定,应用可以部署在多个存储上,一个存储离线或故障,业务继续运行,不受任何影响。

➢存储部分,通过在机房内部署一台EMC VPLEX虚拟化引擎和两台EMC VNX Block磁盘阵列,数据库服务器均通过FC SAN方式访问VPLEX ,在VPLEX 虚拟化引擎的配合下,EMC VNX磁盘阵列将会被VPLEX接管,两台存储上的生产数据可以互为镜像,两台存储镜像后的虚拟化存储空间同时通过VPLEX 提供给数据库主机使用。

➢VPLEX将底层的磁盘阵列做了条带化镜像虚拟化(类似于磁盘的Raid1),其数据保持一致,主机不直接访问底层物理盘阵,而是访问经过VPLEX虚拟化后的逻辑盘阵。

当底层任意一台磁盘阵列出现宕机时,Vplex将自动将对该盘阵的访问重新定向到另一台磁盘阵列,而无需人工干预,实现了存储级的实时切换。

➢每个VPLEX引擎具备72GB Cache。

VPLEX通过预读机制将常用数据预读到控制器Cache内,直接提供给主机访问,而无需从速率较低的磁盘驱动器访问。

两个驱动器之间通过高速通道自动同步Cache数据,保证了双活控制器的高性能。

➢EMC是存储业界的领头羊,通过新技术的研发合作,预先同SAP、Oracle、Windows和Linux等应用和平台厂商进行联合测试,对此解决方案进行了严
格的稳定性、可靠性和兼容性测试,保证了用户在部署使用次方案时不会出现各个软硬件不兼容而造成的系统故障。

➢服务器、SAN交换机、VPLEX 引擎连接示意图:(一个VPLEX引擎包括两个控制器)说明:服务器要求至少配置两个单口的8Gb/s HBA卡。

第3章设备清单
产品名称配置描述数量
VNX5100光纤磁盘存储全冗余模块化光纤SAN存储设备,配置两个存储控制器实现冗
余,存储控制器采用Intel双核处理器,主频1.6GHz;配置8GB
高速缓存;写缓存镜像保护,保证长时间停电情况下缓存数据
永不丢失。

配置4个8Gb光纤通道主机端口,最大可支持8个
8Gb FC端口。

配置4个6Gb四通道SAS磁盘接口。

本次配置
600G 15000转SAS硬盘14块。

最大可支持140TB容量。

配置
512个LUN许可,配置512个存储分区。

配置基于WEB的阵列
管理软件许可,在单一WEB管理界面实现存储管理和监控。


置虚拟资源调配功能,可以为应用程序提供比在存储阵列中分
配给它的物理容量更多的容量,提高存储空间利用率。

2台
VPLEX虚拟化引擎双控制器,配置8个8Gb/s FC 主机接口,8个8Gb/s FC后端
接口,72GB高速缓存;
1套
光纤交换机
建议配置24口光纤交换机,激活16个光纤端口,配置16个
8Gb光纤短波模块。

2台。

相关文档
最新文档