Nutanix超融合方案建议书模板

合集下载

Nutanix超融合之架构设计

Nutanix超融合之架构设计

Nutanix超融合之架构设计超融合平台针对于超融合的概念有着不同的理解,因为组件不同(虚拟化、网络等)而理解不同。

然而,核心的概念如下:天然地将两个或多个组件组合到一个独立的单元中。

在这里,“天然”是一个关键词。

为了更加有效率,组件一定是天然地整合在一起,而不是简单地捆绑在一起。

对于Nutanix,我们天然地将计算和存储融合到设备的单一节点中。

这就真正意味着天然地将两个或多个组件整合在一个独立的、可容易扩展的单元中。

其优势在于:1.独立单元的扩展2.本地I/O处理3.消除传统计算/存储的竖井式结构,融合它们在一起目前Nutanix超融合产品有两种形态:1、捆绑式的硬件+ 软件设备(Nutanix NX系列、Dell XC系列及联想HX系列),2、纯软件模式(Nutanix on UCS等)一般来说,从硬件形态看,是在2U 的占用空间中放置2 个节点或4 个节点。

每个节点都运行一个符合行业标准的虚拟机监控程序(当前是ESXi、KVM、Hyper-V, XenServer在目前版本是Tech-Preview)和Nutanix 控制器VM (CVM)。

Nutanix CVM 将运行Nutanix 软件,并为虚拟机监控程序的所有I/O 操作和该主机上运行的所有VM 提供服务。

凭借虚拟机监控程序的功能,利用Intel VT-d 将管理SSD 和HDD 设备的SCSI 控制器直接传递到CVM。

下面是典型节点的逻辑表现形式的一个示例:从软件定义的角度来看,一般来说,软件定义的智能化是在通用的、商品化的硬件之上通过运行软件来实现核心的逻辑,而这些逻辑之前用专有的硬件编程方式实现(例如ASIC/FPGA 等)。

对于Nutanix 而言,是将传统的存储逻辑(例如RAID,去重,压缩,纠删码等)采用软件方式去实现,这些软件运行在标准的x86 硬件上的Nutanix 控制虚拟机(Controller Virtual Machine,即CVM)内。

Nutanix虚拟化建议方案

Nutanix虚拟化建议方案

目录虚拟化建议书 (1)1.项目背景 (3)2.需求分析 (4)3.系统改造方案 (5)3.1.技术选型 (5)3.2.系统拓扑图 (6)3.3.具体方案描述 (7)3.3.1.融合的计算资源 (7)3.3.2.融合的存储资源 (8)3.4.设备配置参数 (10)3.5.方案优点 (10)4.Nutanix简介 (11)4.1.Nutanix的发展历程 (11)4.2.Nutanix区块和Nutanix节点 (12)4.3.Nutanix的可扩展性 (13)4.4.Nutanix的性能 (15)4.5.Nutanix的可用性 (15)4.6.Nutanix的支持 (16)1.项目背景信息化数据不断增长且集中的业务对 IT 部门的要求越来越高,所以数据中心需要更为快速的提供所需能力。

在以往运维工作中,可以看到IT建设亦面临着诸多问题。

1、存在资源部署浪费及信息安全风险机房设备目前多采用X86架构的服务器,随着业务的增长,服务器数量逐年增长,而有些单个业务系统要求远远小于一台物理服务器资源,多种操作系统、数据库、中间件共用服务器又存在兼容性问题及互相影响的风险,因此目前的布署模式存在一定程度的服务器资源的浪费。

每个业务系统都需要至少一台服务器,虽然每次投资不多,但是这个投资是随着业务系统的增加不断均衡的投入。

在不对当前资源分配、使用模式进行变动的情况下,无法同时保障信息系统安全,亦无法实现资源高效利用和成本投入控制。

2、设备稳定性影响业务系统正常运作的风险绝大部分的业务系统,都是单机部署。

系统维护、升级或者扩容时候需要停机进行,造成应用中断,大大的降低了可用性低。

同时,某些老的业务系统迁移到新的硬件平台时,可能存在一些兼容性的问题,从而在一定程度上限制了业务的发展。

现有的业务服务器既承担业务处理的任务,又承担数据存储的任务,会使性能及处理能力降级,直接影响到关键业务系统的响应时间。

另外,部分生产数据大部分都仅存储于服务器本地磁盘空间之中,数据无冗余、备份。

Nutanix 企业云解决方案说明书

Nutanix 企业云解决方案说明书

Converged Cloud Fabric for Nutanix Enterprise CloudIs it possible to architect an enterprise cloud as good as a public cloud?Midsize enterprises (MSEs) need networking technologies that public cloud providers have spearheaded in data center architecture to enable a frictionless, self-service experience for application deployment. Organizations are eager to bring the same innovation, operational agility and simplicity into managing on-premises applications. Legacy infrastructure has not been able to meet the evolving needs of enterprise applications because they are manual, complex, and siloed.Enterprises need cloud-like infrastructure that is built upon software-defined principles to eliminate complexity, to enable agile provisioning of applications and to dynamically scale infrastructure with the application needs.Nutanix Enterprise Cloud is offering a hyper-converged stack that breaks down silos of compute and storage to enable linear scaling of application performance and capacity without performance bottlenecks, expensive overprovisioning or disruptive downtime. Physical networking, however, has remained challenging with outdated, box-by-box CLI-based approach which simply cannot be operated in cloud timelines.With traditional solutions, deployment of the network takes weeks, basic ongoing operations require manual, trouble-ticketingprocesses and complexity multiplies when the network needs to be scaled. As a result, a significant chunk of IT effort is spent on just scaling and managing infrastructure rather than focusing on applications and business value they provide.Achieving a self-service application model for Nutanix Enterprise Cloud requires an approach where standing up a network is as simple as acquiring a public cloud VPC, ongoing network operations are completely automated, and trouble-shooting is extremely simplified.The SolutionArista and Nutanix are transforming data centers by leveraging public cloud constructs as first principles for architecting enterprise private clouds. Arista’s Converged Cloud Fabric provides invisible (zero-touch) networking to Nutanix hyperconverged infrastructure (HCI) based on Acropolis Hypervisor (AHV). CCF leverages cloud-first networking principles in two ways:1. Leaf-spine design with SDN controls, and2. Public cloud VPC-style logical networking that is API integrated with Nutanix Prism.This joint solution enables unprecedented operational velocity, network automation at VM speed and end-to-end network visibility & troubleshooting. With Arista + Nutanix Enterprise Cloud operating just like a public cloud in terms of economics and operational workflows, customers can now optimize app placement across public and private clouds based on app’s needs for elasticity, cost and performance. In addition, the solution offers networking services through Nutanix Flow which enables simplified policy management and increased application security and visibility.CCF embraces the following hyperscale design principles to enable rapid innovation, operational consistency and TCO reduction: • Logical VPC-style networking with Enterprise VPCs (E-VPCs): CCF provides public cloud-style logical networking by offering Enterprise VPCs as the unit of network automation and visibility, thus enabling the simplicity and agility of public cloudnetworking and consistency of networking principles across enterprise and public clouds.• Software-Defined Principles: The CCF is controlled by an SDN controller offering simplicity with a single pane of glass for fabric management and zero-touch operations. The CCF controller also acts as the single point of integration with Nutanix Prism to automate physical networking and to offer deep visibility, analytics and troubleshooting from a central dashboard.• Core-and-Pod Design: CCF is deployed on a per pod basis with multiple pods connected to an existing core router. This modular approach simplifies automation, enables seamless brown-field insertion, capacity planning and rapid innovation. Solution ArchitectureNetwork Automation for Nutanix E-VPCAutomatic Bootstrapping of Nutanix AHV HostsNutanix bare metal nodes are bootstrapped by CCF through a dedicated Nutanix management sub-network within an infrastructure VPC. An existing AHV cluster can be migrated to CCF or a new cluster can be deployed using the Nutanix foundation tool.Automatic AHV Host Detection and Fabric AdmissionWhen CCF connects with Nutanix Prism, a Nutanix E-VPC is created as a logical construct for operations within CCF. All Nutanix hosts within the E-VPC are automatically detected through link detection mechanisms and admitted into the fabric through the automatic creation of multi-chassis LAG (MLAGs) to the fabric switches. In this way, the entire fabric is brought up in a zero-touch fashion.Automatic formation of MLAGs according to Nutanix Prism ConfigurationsSolution BenefitsThe Converged Cloud Fabric controller acts as a single point of integration with Nutanix Prism to offer Enterprise VPC-level network automation, visibility and troubleshooting benefits.Automated Distributed Logical RoutingWhen VMs are associated with a new, different network segment in Nutanix Prism, CCF learns this and automatically configures logical routing across various segments in the E-VPC and distributes it throughout the physicalfabric. This completely redefines the operational model compared to the legacy box-by-box complex command-line configurations needed to establish routing between the segments.Flexible & Customized Automation OptionsCCF E-VPC automation allows different automation flexibility levels to fit enterprise organizational needs. In the most restrictive manner admins can configure Nutanix Prism Integration in CCF to provide visibility into Nutanix AHV clusters withoutsubscribing to any automatic network configuration changes. On the other hand, admins can configure Prism integration in CCF to provide full-fledged benefits, including automated E-VPC configurations for a Nutanix AHV cluster to support multi-tenancy use cases within organizations. For example, IT department serving multiple internal organizations (e.g.: Finance/HR, etc.) can automatically provision multiple E-VPCs for each of their customers. Following is a breakdown of the automation flexibility provided in the Converged Cloud Fabric.E-VPC based Automated L2 Networking for Nutanix AHVAs networks are configured on Nutanix Prism for VMs on AHV nodes, the integrated solution enables automatic configuration of logical segments within the E-VPC for the Nutanix’ endpoints in CCF. Newly created VMs are dynamically learned as an endpoint in CCF and the corresponding network segments are automatically created within the E-VPC. When AHV VMs and the associated networks are deleted or modified on Nutanix Prism, the CCF automatically deletes or modifies the corresponding logical segments within the E-VPC.Automatic formation of Enterprise VPC & network segments according to Nutanix Prism ConfigurationsNutanix E-VPC-level Endpoint VisibilityCCF Nutanix Prism page displays information of clusters, hosts, virtual switches and the endpoints in a Nutanix E-VPC based on data provided by Prism to CCF. Different tables in CCF provide details of the AHV cluster from different viewpoints.While the Physical connections table provides the fabric connectivity and mapping details for Nutanix hosts, the Endpoints table provides details of the VMs and can be an excellent starting point for troubleshooting.Contextual visibility of Nutanix AHV virtual networksNetwork Visibility, Troubleshooting & Analytics for Nutanix E-VPCFabric Trace for Nutanix E-VPCVM-to-VM traffic visibility for a Nutanix E-VPC across the entire leaf-spine fabric can be visually displayed on the CCF controller, as shown below. This level of visibility to traffic, which cannot be achieved with box-by-box networking, helps rapidly determine if an application issue is network-related versus compute related without going through tedious trouble ticketing processes.Spanning traffic from Nutanix AHV nodesCCF Fabric SPAN feature allows admins to monitor and SPAN traffic streams out from Nutanix AHV clusters without knowing the exact physical parameters related to the traffic stream. For example, an admin can instruct the CCF controller to SPAN traffic from a particular AHV virtual network with a couple of clicks. In traditional networking, the equivalent taskwould require not only intimate knowledge about where exactly traffic would be originating but also coordination and configuration amongst many individual network devices and ports.CCF simplifies these SPAN troubleshooting workflows greatly by allowing admins to define the targeted traffic flow parameters using numerous Nutanix AHV metadata information.Fabric Analytics for Nutanix E-VPCCCF’s advanced fabric analytics for a Nutanix E-VPC captures VM-related information (name, creation time, pNIC info, port-groups), and time-series of events related to VMs. This is very beneficial during troubleshooting to narrow down the time interval when specific events occurred.SPAN Fabric configuration in CCFBuilt-in Fabric Analytics dashboard for Nutanix PrismSanta Clara—Corporate Headquarters 5453 Great America Parkway, Santa Clara, CA 95054Phone: +1-408-547-5500 Fax: +1-408-538-8920 Email:***************Copyright © 2020 Arista Networks, Inc. All rights reserved. CloudVision, and EOS are registered trademarks and Arista Networks is a trademark of Arista Networks, Inc. All other company names are trademarks of their respective holders. Information in this document is subject to change without notice. Certain features may not yet be available. Arista Networks, Inc. assumes noresponsibility for any errors that may appear in this document. May 2020Ireland—International Headquarters 3130 Atlantic AvenueWestpark Business Campus Shannon, Co. Clare IrelandVancouver—R&D Office9200 Glenlyon Pkwy, Unit 300 Burnaby, British Columbia Canada V5J 5J8San Francisco—R&D and Sales Office 1390 Market Street, Suite 800 San Francisco, CA 94102India—R&D OfficeGlobal Tech Park, Tower A & B, 11th Floor Marathahalli Outer Ring RoadDevarabeesanahalli Village, Varthur Hobli Bangalore, India 560103Singapore—APAC Administrative Office 9 Temasek Boulevard #29-01, Suntec Tower Two Singapore 038989Nashua—R&D Office 10 Tara Boulevard Nashua, NH 03062Multi cluster connectivity options for AHV and ESXi HypervisorsConverged Cloud Fabric can greatly simplify connectivity options between Nutanix AHV clusters and Nutanix nodes running ESXi hypervisor. With a couple of click process, you can map your ESXi cluster to one E-VPC in Converged Cloud Fabric and AHV cluster to another E-VPC. As a result, if you are migrating your current ESXi infrastructure to an AHV infrastructure, Converged Cloud Fabric can reduce the networking burden entirely by automating many of the associated connectivity workflows.For example, depending on your enterprise needs, you can choose to map both the ESXi cluster and AHV cluster to the same E-VPC thus making sure connectivity is seamlessly maintained across both the clusters during the migration period. On the other hand, if you wish to only allow a specific set of connectivity from your current ESXi environment to AHV environments you have the flexibility to pick and choose and customize E-VPC mappings depending on your needs.Multi-Cluster AutomationConnectivity details between Nutanix & VMware VPCs in Converged Cloud FabricBusiness Continuity: Extending Network Connectivity Across RegionsMaintaining connectivity across Nutanix AHV clusters in different regions may be crucial to maintaining business continuity. If you operate multiple Nutanix clusters in different datacenters, you can extend the connectivity between these AHV clusters with the help of Converged Cloud Fabric. CCF provides two different flavors of connectivity options to connect across regions: Directly connecting CCF pods (e.g.: connecting with dark fiber), or connecting CCF pods using VXLAN over a Layer3 network. Depending on the needs, admins can pick and choose between these two flavors to establish inter-region connectivity across geographically dispersed Nutanix AHV clusters.。

NUTANIX超融合数据中心方案建议书

NUTANIX超融合数据中心方案建议书

目录1需求分析1.1现状和需求为提供高性能,高可靠性,高扩展性的云平台架构,计划采用新一代的超融合架构建设云平台,提供计算和存储的资源。

1.2数据中心发展趋势回顾数据中心的发展,可以分为个阶段。

年代,称为客户端服务器时代,特点是数据中心以小型机支撑业务系统为主,各系统独立建设,不同系统之间相互隔离,后来出现了存储,实现了不同系统之间的数据共享。

千年开始,服务器开始逐渐普及,服务器虚拟化的兴起,使得存储称为数据中心虚拟化的标准配置。

虚拟化时代数据中心服务器资源可以横向扩展,但是存储不能横向扩展,只能纵向升级,不能适应虚拟化对性能的要求。

年后进入了云时代,企业需要建立云数据中心,服务资源和存储资源都需要资源池化,传统的存储架构已经不能适应云时代的数据中心要求,需要采用软件定义的方式来构建存储资源池,需要支持多种,企业私有云需要能够和公有云对接。

图数据中心发展趋势据的研究预测,传统存储的销售额呈现明显下滑的趋势,市场份额逐渐被近期兴起的超融合架构取代,未来五年,超融合架构的市场份额会超过传统存储,十年后,的市场占有份额会降到以下。

图存储发展趋势1.3超融合与传统架构选择超融合基础架构(,或简称“”)是指在同一套单元设备中不仅仅具备计算、网络、存储和服务器虚拟化等资源和技术,而且还包括备份软件、快照技术、重复数据删除、在线数据压缩等元素,而多套单元设备可以通过网络聚合起来,实现模块化的无缝横向扩展(),形成统一的资源池。

是实现“软件定义数据中心”的终极技术途径。

类似、等互联网数据中心的大规模基础架构模式,可以为数据中心带来最优的效率、灵活性、规模、成本和数据保护。

使用计算存储超融合的一体化平台,替代了传统的服务器加集中存储的架构,使得整个架构更清晰简单。

图超融合架构示意图下表列举了使用超融合架构(计算存储)和传统数据中心三层架构(服务器光纤交换机存储)的对比:2超融合方案设计新一代数据中心建设包含众多信息化应用的实施,与此相对应,机房服务器和存储设备也必将大量使用,并且随着后期应用扩充和服务扩容,服务器和存储设备的投入必然越来越庞大。

Nutanix超融合基础架构解决方案:可支援三大虚拟化平台

Nutanix超融合基础架构解决方案:可支援三大虚拟化平台

以自身獨有的分散式檔案系統為基礎,結合虛擬化平臺,Nutanix 將企業IT環境所需的運算與儲存資源,凝縮在NX-3050這臺2U、4節點的應用伺服器中,用戶可選擇搭配VMware、微軟Hyper-V 或KVM等3種虛擬平臺,以VM為核心來配置與運用硬體資源,並能藉由Scale-Out擴充能力,一次以一個節點為單位逐步擴展效能與容量。

可快速完成IT基礎設施的建置Nutanix稱NX系列應用伺服器是虛擬計算平臺(Virtual Computing Platform)產品,我們可以理解為這是在一個設備平臺上,提供了IT應用所需的計算與儲存資源,並且是透過虛擬平臺Hypervisor以VM的型式來配置與運用硬體資源。

這種將計算、儲存等基礎設施功能融合於一臺設備、並以VM為中心來提供應用需求的產品,便是典型的超融合基礎架構(Hyper-Converged Infrastructure)。

NX應用伺服器出廠時,可按用戶需求由Nutanix原廠或經銷商協助完成基本的叢集設定與Hypervisor部署,用戶端只需花費少許時間進行基本環境參數設定,很快便可開始使用NX系列應用伺服器,以VM型式向前端使用者交付需要的資源。

除了以VM型式提供資源外,Nutanix應用伺服器還可透過底層的分散式檔案系統,提供跨節點資料鏡像、分層儲存,以及壓縮、重複資料刪除、快照、Clone與遠端複製等功能,用戶無需另外尋找第三方解決方案,依靠Nutanix應用伺服器本身,便能提供企業儲存必要的資料保護、I/O加速與資料服務功能。

提供多樣化的產品組合Nutanix提供了多種軟、硬體組態產品組合,硬體部份包括NX-1000、NX-3000、NX-6000、NX-7000、NX-8000與NX-9000等一共6個應用伺服器系列,所有機型都是採用2U高度機箱,其中1000與3000系列是2U/4節點的高密度組態,6000與9000系列是2U/雙節點,至於7000與8000系列則是2U/單節點的組態。

Nutanix解决方案

Nutanix解决方案
可依据数据库IO需求,定制IO服务等级支持横向的性能扩展,满足Oracle数据库对性能扩展的需求
4
按需的交付数据库服务提供7*24连续服务能力,无需担心硬件升级导致计划内的停机
5
典型应用场景之私有云和混合云
43
分支机构ROBO
数据保护与灾难恢复DP&DR
大数据
桌面云VDI
私有云和混合云
OpenStack在Nutanix平台上的集成方案
Acropolis Openstack
Services VM
OpenStack
Acropolis Drivers for Openstack
Acropolis Compute Driver
Acropolis Image Driver
Acropolis Volume Driver
Acropolis Network Driver
NDFS
单节点配置计算资源: 最高可配置 28 核CPU 最高可配置 512GB 内存存储资源: SSD: 2块400/800/1600GB; HDD: 4块1/2/4/6TB 控制器: Nutanix Controller VM
Nutanix DSF优势:无限横向线性扩展
数据中心基础架构没有因为虚拟化而变得简单
传统架构未必适合大量虚拟化的负载
Server
Storage
Server
Server
Storage
Server
Server
Storage
Storage
Server
Server
Storage
Storage
Storage
Node
Node
Node
Node

超融合平台技术方案建议书

超融合平台技术方案建议书

超融合平台技术方案建议书目录一、项目概况 (3)1、建设背景 (3)2、技术需求 (3)2.1、高性能计算集群技术需求 (3)2.2、超融合系统技术需求 (3)2.3、专用机房技术需求 (4)二、建议解决方案 (5)1、方案拓扑 (5)2、方案描述 (5)2.1、超融合平台方案 (6)2.2、数据备份解决方案(未来可选) (13)2.3、连续数据保护解决方案 (16)2.4、横向扩展共享文件存储方案 (17)3、配置清单 (20)三、DELLEMC方案优势 (20)四、DELLEMC超融合及I SILON成功案例列表 (21)五、产品介绍 (25)一、项目概况1、建设背景地理科学院计划建设面向全息地图的地理信息资源开发与利用实验平台,该实验平台是对新一代地理信息资源的利用技术的全新探索,对于提升地理科学院的教学与科研水平具有非常重要的作用。

2、技术需求建设面向全息地图的地理信息资源开发与利用实验平台项目牵涉到三个方面的建设内容:1)、高性能计算集群2)、超融合平台3)、机房装修及强弱电2.1、高性能计算集群技术需求(1)系统计算节点理论峰值≥62Tflops;本项目须采用100Gb OMNIPATH或IB全线速无阻塞高速计算网络;要求明确说明每项设备机架高度、重量、以及功耗,考虑用户机房环境,要求所配置产品组合尽量最小化机架空间。

(2)整体集群选用Intel处理器,满足广泛应用的需求和调试要求。

(3)商业版并行文件系统,满足海量存储空间的需要。

(4)投标商所交付的硬件产品,其所有部件必须都是原厂原装部件,而且产品应是交付前最新生产且未被使用过的全新产品,同时必须具有在中国境内的合法使用权。

2.2、超融合系统技术需求(1)超融合平台及所有数据均需部署在横向扩展架构的设备上;要求结构化数据采用超融合架构,实现计算资源、网络资源、存储资源、数据保护、云环境支持的统一融合,简化部署及资源分配流程,方便日常管理及未来的扩容;而非结构化数据采用横向扩展文件共享设备来存储,可设置多重数据保护策略,便于管理及扩展;(2)需对重要数据及系统进行安全保护,保护的对象为虚拟化环境的虚拟机,保护级别分为本地数据备份和远程的容灾保护,保护的级别既可以做到每天一次的备份,也可以做到秒级的连续保护;(3)要求在保持本次设计架构不变的基础上,所有设备都可以增加最小基本单元的方式扩展,要求扩展尽量简便,不需要专业人员操作,而由平台自动化完成;未来可升级为跨机房的远程双活,都可以实现数据的同步存储,应用分布在2个不同的机房中,可随时切换;2.3、专用机房技术需求专用机房基础设施层主要包括:机柜系统、制冷系统、供配电系统、综合布线系统、机房管理系统、消防系统、防雷接地系统、机房装修系统。

超融合基础构架-工作原理(Nutanix)

超融合基础构架-工作原理(Nutanix)
探索技术,以简化及优化通用工作流,
无需再对服务器、存储网络、存储和
虚拟化采用单独管理解决方案。
Nutanix软件的部署方式
Nutanix 集群为100%软件定义集群。集群中的
每个节点都运行一部Hypervisor(VMware
ESXi、微软Hyper-V 或Nutanix Acropolis
Hypervisor)。作为虚拟机运行的Nutanix 软
块故障的情况下确保数据的正常使用。
可提供不同硬件平台,以解决计算和存储的
不同工作负载需求。Nutanix 软件独立于
硬件,可运行于Nutanix 硬件,也可运行
于戴尔和联想等硬件OEM 提供的硬件。
硬件平台提供“计算密集型”、“存储密集
型”和“仅包括存储型”选项。所有节点都
包括闪存,旨在优化存储性能。此外还提供
全闪存节点,以期为所有企业应用实现最低
C L I C K H E R E TO A D D A T I T L E
Nutanix 超融合基础架
构:
工作原理
演讲人姓名
一、处于十字路口的IT
越 来 越 多 的 企 业要 求 IT 团 队 减 少 用 于 基础 架构 的时 间, 将更
多 时 间 和 预 算 用于 能 够增 加企 业价 值的 应用 服务 。尽 管 IT 硬
延迟和最大I/O 流量。
Prism与Acropolis
Nutanix 软件包括两种组件:
Acropolis 与Prism。Acropolis 是
一种分布式数据平面,提供企业存储
与虚拟化服务,能够帮助应用在
Hypervisor 之间以及未来在云提供
商之间无缝流通。Prism 是一种分布
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

目录经过近多年的持续稳定发展,树立了中国家电企业由小到大、由弱到强、并迅速走向世界的杰出典范。

如今的,已经不仅仅是中国的彩电大王,而且还成为了在海内外享有盛誉的特大型、多元化、国际化企业集团。

企业形成了军用产品、数字电视、数字平面显示、、健康空调、数字视听、数字网络、模具、数字器件、环保电源、技术装备、电子工程、化工材料等十三大产业群。

随着全球互联网浪潮和数字家电技术的迅猛推进,秉承“科技领先,速度取胜”的经营理念,利用以市场需求为特征的拉动力和技术进步为特征的推动力,优化资源配置,通过技术创新、系统整合数字技术、信息技术、网络技术和平板显示技术,改造和提升传统产业,最大限度地满足人们不断增长的物质和文化需要。

为了满足未来业务发展的需要,有效地解决数据安全、集中管控、降低运维成本、快速部署、跨平台访问、节能环保等问题,一直在关注通过虚拟化、分布式及超融合等互联网相关技术来解决现有数据中心的各种挑战,随着虚拟化及云计算的日益成熟,计划将其数据中心新业务系统运行在的基于互联网基因的超融合基础架构平台上。

需求调研数据中心调研现有数据中心存在的挑战包括:•服务器数量众多,管理变得越来越复杂;•新业务系统上线周期长,部署慢;•存储扩展性差,无法支撑新业务的性能需求;•新业务走向互联网化,传统架构无法实现线性扩展能力;•应用系统缺乏高可用性保护;•数据中心空间资源有限等。

目前,紧跟互联网战略,重点规划以软件为中心的业务较多,多数都是面向互联网以及物联网业务,比如:用户中心、支付平台、设备系统、微信电视、电商平台、企业移动办公软件平台及大数据平台等。

超融合与传统架构选择超融合基础架构(,或简称“”)是指在同一套单元设备中不仅仅具备计算、网络、存储和服务器虚拟化等资源和技术,而且还包括备份软件、快照技术、重复数据删除、在线数据压缩等元素,而多套单元设备可以通过网络聚合起来,实现模块化的无缝横向扩展(),形成统一的资源池。

是实现“软件定义数据中心”的终极技术途径。

类似、等互联网数据中心的大规模基础架构模式,可以为数据中心带来最优的效率、灵活性、规模、成本和数据保护。

使用计算存储超融合的一体化平台,替代了传统的服务器加集中存储的架构,使得整个架构更清晰简单。

图超融合架构示意图下表列举了使用超融合架构(计算存储)和传统数据中心三层架构(服务器光纤交换机存储)的对比:超融合方案设计新一代数据中心建设包含众多信息化应用的实施,与此相对应,机房服务器和存储设备也必将大量使用,并且随着后期应用扩充和服务扩容,服务器和存储设备的投入必然越来越庞大。

一方面,管理硬件基础设施的压力和成本会不断增大;另一方面,由于应用的多样性,服务器和存储难于有效整合,服务器的资源使用都远低于其实际的处理能力,计算能力和存储容量难以充分利用。

实施虚拟化云计算数据中心,可以有效整合服务器及存储资源,形成计算资源池,根据新一代数据中心各项应用的实际需要动态分配计算资源,最大效率的利用现有服务器及存储设备,并对数据中心硬件设备进行有效管理和监控。

设计原则在方案设计中我们将遵循以下总体原则:以业务需求为导向技术架构最终是为业务服务的,因此技术架构的设计一定要以业务的需求为导向,充分考虑非功能需求,例如系统的重要程度、安全要求、业务连续性等。

遵循互联网标准新业务系统都是面向互联网和物联网业务,因此架构体系要遵循互联网数据中心设计和建设标准,吸收互联网架构的优势。

提高资源利用率现已经部署了大量的服务器,资源使用率低是较突出的一个问题,因此在项目中,提高资源利用率成为一个重要的任务。

动态扩展性在发展趋势中,动态基础架构已经成为基础架构的发展方向。

使基础架构成为一个动态、灵活、具有弹性的基础架构,同时在实时地运营过程可进行灵活的资源动态调整。

资源扩展要体现在计算资源和存储资源的同时扩展。

分布式一切应用系统的高可用性是保障服务等级的重要因素,在架构设计中应该以软件定义为主,借助软件的分布式架构满足高可用性要求,实现系统架构和平台架构的无单点故障、无单点瓶颈问题,保障新一代的业务系统健壮性。

安全性在系统设计中,安全性是一个非常重要的问题。

在架构中需要考虑到虚拟化架构内外部的安全,包括数据安全等问题,以保证整个系统长期安全稳定的运行。

架构设计超融合架构在数据中心中承担着计算资源池和分布式存储资源池的作用,极大地简化了数据中心的基础架构,而且通过软件定义的计算资源虚拟化和分布式存储架构实现无单点故障、无单点瓶颈、弹性扩展、性能线性增长等能力;在虚拟化层可以自由选择的品牌,包括、和;而且通过简单、方便的管理界面,实现对数据中心基础架构层的计算、存储、虚拟化等资源进行统一的监控、管理和运维。

超融合基础架构形成的计算资源池和存储资源池直接可以被云计算平台进行调配,服务于、、、等、平台,对上层的互联网及物联网业务等进行支撑。

同时,分布式存储架构简化容灾方式,实现同城数据双活和异地容灾。

现有的超融合基础架构可以延伸到公有云,可以轻松将私有云业务迁到公有云服务。

图超融合数据中心架构方案描述计算资源基于架构的模块化数据中心由 (区块)和 (节点)组成。

下图为标准的一个 (区块)设备,仅占用个机架单元 (高)。

而每台标准的 (区块) 设备均含有四个独立的节点,每个(节点)都是一台独立的服务器。

却能够提供台标准路的服务器和最大存储容量。

图: (区块 ) 和 (节点 )的计算资源池是通过服务器虚拟化来实现的,可以支持、及平台提供的等,如图。

在虚拟化层形成计算资源池,为业务系统的虚拟机提供不同的服务质量和能力,包括了高可用( )、容错( )、在线迁移( )、资源动态负载均衡( )等虚拟化的特性。

同时,可以支持业务虚拟机在不同的之前进行迁移,也就是的能力,例如从迁移到等。

图超融合架构计算资源池(服务器虚拟化)存储资源提供的分布式文件系统()可以将一组集群内的节点组成一个统一的分布式存储平台。

对于虚拟化平台软件而言就是一个集中的共享式存储,与任何其他集中式存储阵列一样工作,且提供更为简单便捷的存储管理,无需像传统集中存储那样再配置、卷、或者组。

图分布式存储架构和功能分布式存储架构不仅同样提供传统存储的能力外,还提供更多的能力。

针对于虚拟化方面提供快照、克隆等机制,数据层实现本地优先访问、存储分层等性能机制,对数据进行压缩和去重提高存储可用容量,借助两份以上冗余数据提供存储的可靠性,增加或减少节点数据分布会自动平台,当节点宕机或磁盘损坏后具备数据自恢复能力等。

每个节点提供两种磁盘,标准配置为块,容量从到;块的,容量为和(部分型号节点提供和的)。

图分布式存储系统逻辑架构被设计成为非常动态的平台,可以适用于不同工作负载的应用,并且允许混合节点类型:例如将计算密集型节点和存储密集型节点混合在一个集群中。

对于集群内部磁盘容量大小不同的,确保数据一致的分布非常重要。

有自带的称为磁盘平衡的技术,用来确保数据一致的分布在集群内部各节点上。

磁盘平衡功能与各节点的本地磁盘利用率和内置的(数据生命周期管理)一同工作。

它的目标是使得所有节点的磁盘利用率大致相等。

另外,节点通过实现和的数据热分层。

简单而言,磁盘的热分层时实现在集群内所有节点的和上,并且由负责触发数据在热分层之间的迁移。

本地节点的在热分层中是最高优先级的,负责所有本地虚拟机的读写操作。

并且还可以使用集群内所有其他节点的,因为层总是能提供最好的读写性能,并且在混合存储环境中尤为重要。

在超融合的虚拟化环境中,所有操作都将由本地节点上的 ()接管,以提供极高的性能。

据以往经验及用户习惯分析,一般运行服务器虚拟化的虚拟机对性能要求在左右,而单个节点可提供上的,节点集群可提供将近的。

完全可以满足需求。

网络拓扑在每个单节点上,默认提供如下网络端口:标配 , ()附加 , ()下图为推荐的网络拓扑图:图网络拓扑在计算虚拟化资源池中的每台虚拟化节点上会运行多台虚拟机,多台虚拟机之间共享网络,为了方便管理建议采用虚拟交换机来配置和管理网络,虚拟交换机可在数据中心级别提供集中和聚合的虚拟网络,从而简化并增强虚拟机网络。

在虚拟交换机的网络划分上,仍然可以采用的方式划分不同的子网,实现不同子网段的安全和隔离。

在网络隔离上,也可以采用网络虚拟化技术。

网络协议,即协议的扩展版本。

网络可以跨越物理边界,从而跨不连续的数据中心和集群来优化计算资源利用率。

采用逻辑网络与物理拓扑相互分离,使用的技术,所以无需重新配置底层物理网络设备即可扩展网络。

正因如此,也就无需再花费大量时间来规划如何调配及管理数量剧增问题。

在每个物理节点上有多种网络需求,包括管内部通讯网络、管理网络、生产网络等,因此每个节点需配置多块网卡,网络设计建议如下:备份容灾平台自带的存储层面及基于虚拟机粒度的备份恢复功能。

用户可以针对每个虚拟机设置不同的备份策略,包括备份计划和备份保留周期,会自动通过存储快照方式对虚拟机进行备份。

所有的快照均是基于存储层面的,与虚拟化层面(例如)的快照不同,存储层面的快照不会影响虚拟机的性能,对于虚拟化软件是完全透明的。

传统的备份方式通过网络传输备份数据,需要特定的备份窗口以免影响业务正常运行。

备份可以与传统的备份策略互补,既能保证对于重要的虚拟机进行高频度备份又不会占用额外的网络带宽。

例如:•对于普通虚拟机可以使用传统的备份方式每周进行全备,将备份数据保留在外部存储(例如磁带库中);同时使用备份进行每天甚至每小时的备份,数据直接保留在存储上以便快速恢复。

•对于比较重要的虚拟机可以使用传统备份每周全备、每天增量的方式,将备份数据保留在外部存储(例如磁带库中);同时使用备份进行每小时甚至每小时的备份,数据直接保留在存储上以便快速恢复。

•可以采用 (简称,只针对)、(和)、(和)等虚拟化备份解决方案作为有效补充。

图容灾功能,分为两个级别:和。

都是基于虚拟机快照的方式将更新数据异步复制到远程的集群中。

可以实现同城双数据中心之间的接近于“零”(需要裸光纤支持),即便是标准也能实现为小时(基于网络带宽和更新数据量),满足绝大多数异地容灾的业务需求。

容灾支持双向、一对多、多对一各种不同的复制模式。

并且可以通过自带的管理界面激活容灾中心的虚拟机进行容灾演练。

不再需要额外繁琐的灾难恢复计划,基于鼠标点击即可完成容灾切换。

使用解决方案可以在项目初始即确定今后的容灾规划,而无需在今后专门立项重复设计整体容灾架构。

依据用户规模和分支机构数量,通过简单灵活的软件配置,将已有分支机构的虚拟化环境远程容灾到总部数据中心,逐步形成星型的容灾架构。

方案优势使用虚拟化基础架构,在保证用户数据的高速访问和高可靠性同时,不再需要传统的集中式存储架构,避免在今后运行过程中出现设计初期忽视的性能问题。

相关文档
最新文档