超融合数据中心规划

合集下载

超融合技术实施方案

超融合技术实施方案

超融合技术实施方案超融合技术是一种集成了计算、存储、网络和虚拟化等多种功能的新型数据中心基础架构。

它将传统的IT基础设施整合到一个简单的、灵活的平台上,提供了更高的效率和更低的成本。

在当前信息化快速发展的背景下,超融合技术正日益成为企业构建现代化数据中心的首选方案。

一、超融合技术的优势。

超融合技术的优势主要体现在以下几个方面:1. 简化管理,超融合技术整合了计算、存储和网络等多种功能,简化了数据中心的管理和维护工作。

管理员可以通过统一的管理界面对整个数据中心进行集中管理,大大提高了管理效率。

2. 灵活扩展,超融合技术支持模块化的扩展方式,可以根据业务需求灵活地增加计算和存储资源,满足不断增长的业务需求。

3. 高性能,超融合技术采用了先进的硬件和软件技术,提供了高性能的计算和存储能力,能够满足企业对于数据处理和分析的需求。

4. 成本效益,超融合技术整合了多种功能,减少了硬件设备和软件许可的采购成本,同时也降低了数据中心的能耗和维护成本,具有明显的成本优势。

二、超融合技术的实施方案。

在实施超融合技术时,需要考虑以下几个方面:1. 评估需求,首先需要对企业的业务需求进行评估,了解业务的特点和发展趋势,确定超融合技术的实施目标和重点。

2. 设计架构,根据业务需求和实施目标,设计超融合技术的架构方案,包括计算、存储、网络和虚拟化等方面的配置和布局。

3. 硬件采购,根据架构方案,采购符合需求的超融合设备和相关硬件设备,确保设备的性能和可靠性。

4. 软件配置,对超融合设备进行软件配置和集成,包括操作系统、虚拟化软件、存储管理软件等,确保设备的正常运行和管理。

5. 数据迁移,将现有的业务数据迁移到超融合设备中,确保数据的完整性和安全性。

6. 测试验证,对实施后的超融合设备进行测试和验证,确保设备的性能和稳定性符合预期。

7. 运维管理,建立超融合设备的运维管理体系,包括监控、故障处理、性能优化等,确保设备的正常运行和高效管理。

云计算超融合改造建设方案

云计算超融合改造建设方案

云计算超融合改造建设方案随着信息技术的快速发展,云计算作为一种新型的计算模式,正日益受到各行业的广泛和应用。

超融合架构作为云计算的一种重要形式,将计算、存储、网络等资源进行深度融合,具有高效、灵活、易扩展等优点,成为企业进行信息化建设的重要选择。

本文将探讨云计算超融合改造建设方案,以期为企业实现云计算转型提供参考。

提高资源利用效率:超融合架构将计算、存储、网络等资源进行深度融合,实现了资源的集中管理和动态分配,提高了资源利用效率。

提升业务响应速度:超融合架构通过将计算、存储资源进行池化,可以快速地根据业务需求进行资源分配和扩展,从而大大缩短业务响应时间。

增强数据安全性:超融合架构可以实现数据的集中存储和统一管理,方便进行数据备份和容灾,从而增强数据安全性。

降低运维成本:超融合架构的集中管理和自动化运维特点,可以大大降低运维成本。

制定改造计划:首先需要制定详细的改造计划,包括改造目标、改造内容、改造时间、改造预算等方面。

评估现有资源:对现有资源进行评估,包括计算、存储、网络等资源的使用情况、性能情况以及存在的问题等。

选择超融合产品:根据评估结果和企业需求,选择合适的超融合产品,包括产品的性能、功能、稳定性等方面。

部署超融合平台:根据改造计划和产品特点,部署超融合平台,包括计算、存储、网络等资源的配置和优化。

迁移业务系统:将现有业务系统迁移到超融合平台上,包括数据迁移、应用程序迁移等。

进行测试和优化:对迁移后的业务系统进行测试,根据测试结果对超融合平台进行优化,确保业务系统的稳定性和性能。

监控和管理:对超融合平台进行监控和管理,包括性能监控、故障处理、安全控制等方面。

持续优化和维护:根据实际运行情况和业务需求,不断对超融合平台进行优化和维护,确保平台的稳定性和性能。

云计算超融合改造是各行业实现信息化建设的重要途径之一。

通过制定详细的改造计划,评估现有资源,选择合适的超融合产品,部署超融合平台,迁移业务系统,进行测试和优化,监控和管理以及持续优化和维护等步骤,可以实现企业云计算超融合改造的目标,提高资源利用效率,提升业务响应速度,增强数据安全性,降低运维成本。

超融合项目实施方案

超融合项目实施方案

超融合项目实施方案一、项目背景。

随着信息化技术的不断发展,企业对于数据存储和处理的需求越来越大。

传统的IT架构已经无法满足企业对于高性能、高可用、高可扩展性的要求。

超融合技术应运而生,它将计算、存储、网络等多种资源整合在一起,通过软件定义的方式实现资源的统一管理和高效利用,极大地提升了数据中心的整体性能和灵活性。

二、项目目标。

本项目旨在引入超融合技术,对企业现有的IT基础设施进行升级和优化,提升数据中心的整体性能和效率。

具体目标包括:1. 构建高性能、高可用的超融合基础架构,满足企业日益增长的业务需求。

2. 提升数据中心的资源利用率,降低运维成本,提高IT基础设施的灵活性和可扩展性。

3. 实现数据中心的自动化运维管理,提升管理效率,降低人工干预。

三、项目实施方案。

1. 硬件选型。

根据企业的实际业务需求和数据中心规模,选择性能优越、稳定可靠的超融合硬件设备,包括服务器、存储设备、网络设备等。

确保硬件设备的兼容性和扩展性,为后续的系统部署和升级提供保障。

2. 软件部署。

部署超融合软件平台,通过虚拟化技术实现计算、存储、网络等资源的统一管理和调度。

建立虚拟化集群,实现资源的动态分配和负载均衡,提升整体性能和可用性。

同时,结合自动化运维工具,实现对系统的自动化监控和管理,提高运维效率。

3. 数据迁移。

针对企业现有的应用系统和数据,制定合理的迁移方案,确保数据的安全性和完整性。

利用超融合平台的数据迁移工具,实现对现有数据的快速迁移和同步,减少业务系统的停机时间和数据迁移成本。

4. 系统集成。

将超融合平台与企业现有的IT系统进行集成,实现与现有系统的无缝对接和互操作。

同时,对接企业的监控系统和运维管理平台,实现对超融合平台的全面监控和管理,确保系统的稳定运行和故障快速响应。

5. 培训与支持。

针对IT运维人员和系统管理员,开展相关的培训和知识转移工作,提升其对超融合平台的理解和应用能力。

同时,建立健全的技术支持体系,为企业提供及时的技术支持和服务保障,确保超融合系统的稳定运行。

超融合方案建议书

超融合方案建议书

目录1项目背景21。

1需求调研31。

1。

1数据中心调研31。

1。

2应用调研31.2超融合与传统架构选择32超融合方案设计42.1设计原则52。

2架构设计62。

3方案描述62。

3。

1计算资源62.3。

2存储资源72。

3。

3网络拓扑82。

3。

4备份容灾92。

4方案优势102。

4.1横向扩展优势122.4。

2性能优势122.4。

3可靠性132。

4.4易于部署142.4。

5集中管理142。

4.6自动故障恢复153配置清单164超融合产品介绍164。

1N UTANIX的发展历程164。

2N UTANIX架构和软件定义存储174.3N UTANIX与传统架构的差别174。

4N UTANIX和超融合市场181项目背景经过近几十年的持续稳定发展,XXXX树立了中国企业由小到大、由弱到强、并迅速走向世界的杰出典范。

随着全球互联网浪潮技术的迅猛推进,XXXX秉承“科技领先,速度取胜”的经营理念,利用以市场需求为特征的拉动力和技术进步为特征的推动力,优化资源配置,通过技术创新、系统整合数字技术、信息技术和网络技术,改造和提升传统产业,最大限度地满足人们不断增长的物质和文化需要。

为了满足未来业务发展的需要,有效地解决数据安全、集中管控、降低运维成本、快速部署、跨平台访问、节能环保等问题,XXXX一直在关注通过虚拟化、分布式及超融合等互联网相关技术来解决现有数据中心的各种挑战,随着虚拟化及云计算的日益成熟,计划将其数据中心新业务系统运行在的基于互联网基因的超融合基础架构平台上。

1.1需求调研1.1.1数据中心调研XXXX现有数据中心存在的挑战包括:•服务器数量众多,管理变得越来越复杂;•新业务系统上线周期长,部署慢;•SAN/NAS存储扩展性差,无法支撑新业务的性能需求;•新业务走向互联网化,传统架构无法实现线性扩展能力;•应用系统缺乏高可用性保护;•数据中心空间资源有限等。

1.1.2应用调研目前,XXXX紧跟互联网+战略,重点规划以软件为中心的业务较多,多数都是面向互联网以及物联网业务,比如:用户中心、支付平台、设备系统、O2O电商平台、企业移动办公软件平台及大数据平台等。

NUTANIX超融合数据中心方案建议书(优选.)

NUTANIX超融合数据中心方案建议书(优选.)

精品word.最新文件---------------- 仅供参考--------------------已改成-----------word文本 ---------------------方便更改赠人玫瑰,手留余香。

方案建议书1 / 29超融合数据中心方案建议书 | 1目录1需求分析 (3)1.1现状和需求 (3)1.2数据中心发展趋势 (3)1.3超融合与传统架构选择 (5)2超融合方案设计 (7)2.1设计原则 (8)2.2方案设计 (9)2.2.1计算资源 (9)2.2.2存储资源 (11)2.2.3网络拓扑 (13)2.2.4容灾方案 (15)2.3方案优势 (17)2.3.1横向扩展优势 (20)2.3.2性能优势 (22)2.3.3可靠性 (23)2.3.4易于部署 (24)2.3.5集中管理 (24)2.3.6自动故障恢复 (26)3配置清单 (27)1需求分析1.1现状和需求为提供高性能,高可靠性,高扩展性的云平台架构,计划采用新一代的超融合架构建设云平台,提供计算和存储的资源。

1.2数据中心发展趋势回顾数据中心的发展,可以分为3个阶段。

1990年代,称为客户端服务器时代,特点是数据中心以小型机支撑业务系统为主,各系统独立建设,不同系统之间相互隔离,后来出现了SAN存储,实现了不同系统之间的数据共享。

2000千年开始,X86服务器开始逐渐普及,服务器虚拟化的兴起,使得SAN/NAS存储称为数据中心虚拟化的标准配置。

虚拟化时代数据中心服务器资源可以横向扩展,但是SAN存储不能横向扩展,只能纵向升级,不能适应虚拟化对性能的要求。

2010年后进入了云时代,企业需要建立云数据中心,服务资源和存储资源都需要资源池化,传统的SAN存储架构已经不能适应云时代的数据中心要求,需要采用软件定义的方式来构建存储资源池,需要支持多种Hypervisor,企业私有云需要能够和公有云对接。

图1.1 数据中心发展趋势据WikiBon的研究预测,传统SAN/NAS存储的销售额呈现明显下滑的趋势,市场份额逐渐被近期兴起的超融合架构/ServerSAN取代,未来五年,超融合架构的市场份额会超过传统SAN/NAS存储,十年后,SAN/NAS的市场占有份额会降到10%以下。

南通大学超融合数据中心一期技术方案

南通大学超融合数据中心一期技术方案

南通大学超融合数据中心一期技术方案根据智慧校园建设需求,拟购置一套超融合数据中心(含备份一体机),实现资源共享,提高利用率。

超融合架构建设软件定义数据中4(SDDC),涉及到软件定义计算、软件定义存储、软件定义网络及安全等部分,实现智慧校园关键业务系统的高可用运行及灾备功能。

一、需求统计本次数据中心拟运行业务系统包括待迁移的智慧校园三大平台、流程平台、网站群以及OA系统,新部署学工、教务、科研等七大智慧校园业务系统,另预留50%的冗余,现将具体需求统计如下:二、采购清单根据以上需求统计,超融合数据中心内部至少实现数据与业务的逻辑隔离,拟部署2 台48 口FCOE全万兆光纤交换机(专用节点内部数据传输)以及2台48 口数据中心专用全万兆交换机(数据中心业务传输),购12台超融合节点服务器(组成两个集群或1个集群),方案1:每节点配置4个万兆光纤网卡,2个数据口连接FCOE交换机,2个业务口连接万兆交换机,实现物理隔离。

方案2:每个节点配置2个40G光纤网卡,连接FCOE40G交换机,FCOE交换机上联万兆交换机。

另需配置一台备份一体机,用于超融合数据中心中重要业务系统数据的备份,提高业务系统的可用性及可靠性。

方案1 方案2三、性能参数说明:供应商可提供优于以下功能和性能指标的,请提供原厂盖章的证明文件。

合同与招投标文件中以最高产品参数为准。

3.1超融合系统技术指标要求超融合系统节点要求License,包括服务器虚拟化、存储虚拟化和虚拟化安全的所有授权,支持多数据中心管理等高级虚拟化管理特性3.2万兆交换机和FCOE交换机技术参数12、FCOE交换机技术参数3.3备份一体机技术参数3.3.1硬件平台技术参数3.3.2软件平台技术参数备份软件采用容量授权的模式,国际品牌产品必须提供产品详细配置,包括官方产品模块编号、产品的中英文描述和具体数量。

对不低于40TB的生产数据满配所有的授权许可,包括但不限于以下授权:•无服务器数量限制、无文件系统数量限制的备份恢复授权许可;•无服务器数量限制、无数据库系统数量限制的备份恢复授权许可;•无服务器数量限制、无虚拟机数量限制的备份恢复授权许可•配置40TB生产数据重复删除磁盘许可管理模块3.4负载均衡设备参数四、系统集成要求1.方案顶层设计要求:全面梳理目前现有业务系统,提供基于软件定义数据中心的系统架构设计,在资源节点扩展性、数据备份、网络连接及安全、南北及东西向数据流要有明确的设计说明。

超融合数据中心建设部署方案

超融合数据中心建设部署方案

超融合数据中心建设部署方案一、需求分析和规划1.明确业务需求:根据企业的业务规模和需求,确定超融合数据中心的规模和功能需求。

2.网络设计:设计网络架构,确保数据中心的网络流量和延迟满足业务需求。

3.数据存储需求:确定数据中心对存储空间和性能的需求,选择适合的超融合数据存储系统。

4.计算需求:根据业务负载,选择适当的超融合计算资源,并规划计算节点和虚拟化环境。

5.备份和恢复需求:确保数据中心具备适当的备份和灾难恢复能力,保护企业的数据安全。

6.安全需求:加强数据中心的安全性,包括物理安全、网络安全和数据安全。

二、硬件选择和采购1.服务器和存储设备:根据需求选择合适的服务器和存储设备,确保性能和容量满足业务需求。

2.网络设备:选择支持高性能、可扩展和安全的网络交换设备,确保网络流量的快速传输和安全性。

3.机柜和电源:选择适合数据中心的机柜,并保证电源供应的可靠性和稳定性。

4.备份设备:选择适当的备份设备,如磁带库或云存储,以实现数据的备份和恢复。

三、软件选择和配置1.超融合软件:选择适合企业需求的超融合软件平台,包括虚拟化管理、存储管理和网络管理等功能。

2.操作系统和应用软件:根据实际需求选择合适的操作系统和应用软件,确保其与超融合平台的兼容性。

3.云管理平台:选择合适的云管理平台,实现对超融合数据中心的集中管理和监控。

四、数据中心建设和部署1.机房建设:根据硬件设备的需求,确保机房的供电、制冷、防火等基础设施满足要求。

2.设备安装和连接:安装和连接服务器、存储设备、网络设备等硬件设备,确保其正常运行和互联。

3.软件配置和测试:配置超融合软件和操作系统,进行相关测试,确保数据中心的功能和性能满足要求。

4.数据迁移和验证:迁移现有的数据到超融合数据中心,验证数据的完整性和正确性。

5.系统集成和验收:进行系统集成和验收测试,确保数据中心的各个组件协同工作,满足业务需求。

五、数据中心运营和管理1.监控和维护:建立监控系统,定期监测数据中心的硬件和软件状态,及时进行维护和故障处理。

超融合数据中心项目实施方案

超融合数据中心项目实施方案

超融合数据中心项目实施方案1.1项目组织结构及人员分工1.1.1工程项目组织结构为本次项目采用科学的项目组织管理制度,对项目部署实施进行规划:分清职责,技术力量保证;合理安排,交货运输,项目实施保障;对项目施工严谨管理;对整体实施网络拓扑规划。

为了保障项目的顺利完成,特成立如下的项目组织机构:项目领导小组:由甲方的相关领导和我公司主管经理组成,是项目的最高决策机构,负责控制项目方向和总体进展情况,对项目重大问题进行决策,分配项目实施需要的资源。

项目经理:是项目的直接承接者,是任务管理者,负责计划和安排项目的各项实施工作,协调各方面资源,控制项目风险,保证项目按时按质的完成。

现场实施组:由我公司各区专门成立的客户服务部以及授权服务机构核心技术人员组成,负责现场硬件设备安装调试,处理项目实施中的相关问题。

质量监督组:负责检查项目实施质量和进度,监督中心端设备和前端设备实施项目各步骤的完成情况。

技术保障组:由总部技术专家组成,是项目实施及售后服务过程中各种疑难技术问题的技术支持。

项目培训组:由总部大客户服务部及我公司各区域技术专家组成,负责项目实施前、实施后对客户网络负责人员及维护人员进行系统的培训。

产品支持组:由我公司专门成立的项目支持小组组成,负责相关项目、产品技术文档的整理,并协助整个项目过程中的流程建立。

1.1.2乙方项目组技术成员情况介绍(依据项目情况具体填写及选取)1.1.2.1产品支持组1.1.2.2项目培训组1.1.2.3现场实施组1.2项目实施管理1.2.1项目管理1.2.1.1实施约定任何项目的实施都需要有一些前提和约定,事先在这些事项上达成共识,并且在实施过程中时时注意这些因素,是项目实施顺利进行的必要保证。

双方将确保项目实施在事先商定的范围内进行,如有变化,必须按双方拟定的范围改变控制程序进行。

项目系统支持组将负责所有硬件及网络环境的建立和维护,为项目实施提供保证。

项目实施过程中双方应及时沟通。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Q1:你们对数据中心的规划是如何考虑的?
A1:Nutanix主要是做基础架构的公司,因此对于企业云数据中心的规划,是在IAAS层面上适当考虑与paas的结合,而对于基础架构来说,是基于超融合的标准模块化方式构建存储、计算一体化平台,在后续的版本中也会增加虚拟化平台Micro segment的内容. 在数据中心整体架构方面,会结合业界的网络、负载均衡等厂商方案,在企业云平台中予以集成,如上述的生态系统图。

此外,对于数据中心基础架构规划方面比较全面的技术发展介绍,个人觉得ZDNet在13年的“软件定义与硬件重构”不错,是比较好的中文公开发行资料,可以结合当前的技术发展趋势作为参考。

Q2; 竞争分析可以介绍下吗? 主流的超融合之间的比较
A2:关于竞争分析,从技术角度讲会比较多,我下面引用一个用户在选择Nutanix时候的分析吧,他写的比较简洁.
这个用户从09年开始虚拟化,虚拟化软件是vSphere。

经过前期对比,最终方案在Nutanix
和vSan间选择,最后他考虑1、兼容性对系统的影响——以前吃过很多兼容性造成的苦头,因此没有选择软件排他的vSAN;2、Nutanxi在这个用户的应用性能测试时有很好的表现和对比,应用测试主要是他们核心的SQL Server数据库,用的实际业务数据;3、保留一定的软件平台选择性也是用户考虑的一部分因素;因此最终这个用户选择了Nutanix。

当然不同用户的关注点也可能会有所不同。

Q3: 请问Nutanix可以和Openstack云平台整合吗?
A3:Nutanix可以和OpenStack云平台进行整合,通过一个或一组已定制的OVM,内含Openstack的驱动,如下图所示:
Q4:Nutanix有节点数规模限制吗?会受到传统网络架构的限制吗?
A4:节点规模数没有明确的限制,但在软件版本上有限制:标准版最大12节点,高级版和Ultimate版无限制,但实际部署时还是要根据网络、数据、应用的情况进行考虑,例如百思
买现在是660个节点、5PB数据,但也根据实际情况做了多集群部署,通过Prism Central 统一管理,通过数据本地化功能能够最少的使Nutanix受到传统网络架构的限制
如上图,在后续NVme和3dxpoint这样的技术出现后,如果没有数据本地话化,即使网络也会存在瓶颈。

Q5:oracle rac可以跑着nutanix上吗?可以讲讲技术实现吗?
A5:可以,很多实际案例,Oracle跑在Nutanix上的问题,从两方面看1、大部分用户做Oracle RAC不是为了性能而是为了可靠性;2、目前PC服务器单处理器已经可以支持24个计算核心,有足够的计算能力应对Oracle的需要;3、Nutanix的缓存技术在混合模式下已经可以提供很好的性能,同时支持pIN模式——全数据库保存在ssd 上,即使在混合模式;4、全闪存在IO上也能满足Oracle的io需要。

Q6:上面两个集群可以做同步吗?通过什么技术实现数据同步?
A6:集群间支持同步和异步两种数据复制方式;DSF底层的自有复制功能实现,DSF底层除了上述的几个关键服务外,其实一共有29个底层服务,里面包含了复制功能
Q7:如果都是大于128K的查询文件适合使用nutanix平台吗?
A7:大于128K的查询文件也适合使用nutanix平台。

需要根据实际场景的工作负载和数据量等相关因素,对Nutanix平台进行配置选择。

Q8:请问一下,虚机与cvm 的io是通过iscsi 还是smb 的方式实现的
A8:esxi是nfs ahv是iscsi hyperv是smb,虚拟机与CVM的IO,通过前述的cvm中的Stargate服务,在形式上,对KVM/AHV是ISCSI,对ESXi是nfs,对Hyper-v是smb
Q9:超融合常被业界和分析师公司和其他存储相关技术比较,比如SAN,有人(简单化地)认为超融是直接来颠覆SAN技术(你死我活的zero-sum game),个人觉得支持的应用负载实际上有很具体的差异区分(各有所长),请问Nutanix怎么看?是否有non-zero sum game的可能?
A9:非零和的课题,我觉得也是存在的,就如小机和PC服务器,PC服务器的增长快并不意味着小机失去了市场,存储市场也是一样的,只是从发展趋势来看,超融合这样的技术会在后续的场景中相比传统存储发展更快。

此外您也可以看到,高端存储的架构本身也已经逐渐有从专用芯片和网络向x86芯片和通用网络等方向发展的趋势,例如HDS也推出了基于X86芯片的产品。

Q10:超融合对底层网络有什么要求?
A10:Nutanix在生产环境超融合部署中,一般还是建议采用万兆网络, 当然也需要考虑网络延——与分布式系统的I/O性能相关。

但还是看应用规模,应用体量小的时候,千兆都
没有问题。

因此不同场景底层要分开讨论。

Q11:比如:因为网络规模是不可能无限的大,不安全和稳定性的问题。

为了解决实际部署,都会分割较小规模来考虑。

这就是我所讲的nutanix如何规划数据中心的问题?
A11:数据中心规划的议题很大,我觉得总的来看,从数据中心基础架构来看的发展趋势还是软件定义和硬件重构——13年至顶网的那篇文档写的还是不错的,可以参考。

从本质上讲,超融合和云计算实现的都是数据中心的自动化,但数据中心规划从目前看还有所谓Green field以及已有legacy system——尤其是应用——及架构的问题。

Nutanix Blobal现在也在做与OCP的结合,不过还在测试阶段,后续有一定的进展可以报告时,我们再做进一步的分享。

Q12:nutanix的产品有做网络闭环反馈的案例吗?
A12:您说的网络闭环反馈是指节点间互连的方式吗?这个没有。

不知道是否正确理解了您的问题;nutanix目前自己的AHV虚拟化平台上的网络方面是完全基于openswitch的实现。

Q13:nutanix 计算资源池是通过x86服务器虚拟化来实现的,虚拟化后装RAC没问题吧?A13:nutanix 计算资源池是通过x86服务器虚拟化来实现的,虚拟化后装RAC没问题吧:没问题,ESXI下仲裁盘可以用vmfs打开multi write,ahv下用iscsi——nUtanix有ABS服务,ABS是acropolis block service,通过dsf也可提供对外的iscsi块存储服务。

Oracle RAC运行于虚拟化平台,我自己在2012年重庆地税金税三期项目里就已经有过实践,单纯从技术上讲是肯定没有问题的。

相关文档
最新文档