V7000存储高可用解决方案

V7000存储高可用解决方案
V7000存储高可用解决方案

(XXX容灾方案建议)

目录

第1章XXXX容灾方案参考 (1)

1.1 系统现状 (1)

1.2 容灾需求分析 (1)

1.3 容灾参考方案 (2)

1.3.1 总体架构规划 (2)

1.3.2 V7000 外部存储虚拟化功能说明 (3)

1.3.3 V7000 VDM(虚拟磁盘镜像)功能说明 (3)

1.3.4 后期存储扩展建议 (4)

1.4 系统配置参考 (4)

第2章V7000存储设备介绍 (6)

2.1 IBM V7000存储系统概述 (6)

2.2 通过IBM S YSTEM S TORAGE E ASY T IER增强访问能力 (6)

2.3 通过精简调配来优化效率 (7)

2.4 动态迁移避免系统中断运行 (7)

2.5 通过复制服务来保护数据 (8)

2.6 管理工具与IBM S YSTEMS D IRECTOR相集成 (10)

2.7 高性能SSD支持 (10)

2.8 外部存储系统虚拟化 (10)

第3章存储高可用技术建议 (12)

3.1 存储高可用性的内容 (12)

3.2 存储高可用性方案的主要实现方式 (14)

3.2.1 方式一:磁盘设备间数据镜像( 如LVM Mirror ) (15)

3.2.2 方式二:磁盘设备间数据复制(如PPRC或ERM) (19)

3.2.3 方式三:采用SVC或V7000或V7000实现逻辑卷镜像 (21)

3.2.4 三种HA方式的比较 (23)

第1章XXXX容灾方案参考

1.1系统现状

XXXX现有IT系统的现状大致如下图所示。采用IBM P550服务器作为数据库服务器,采用DS3400存储设备作为主存储系统。

1.2容灾需求分析

当前,XXXX计划在同一园区内建设容灾系统,在容灾中心和主生产中心之间采用2km长的裸光纤进行直连。并且,希望对现有的存储设备进行充分利旧。

IBM将针对当前所了解的情况,做出初步的方案,供XXXX容灾建设参考。

由于DS3400设备没有自身的基于磁盘的远程复制功能,因此无法采用基于存储底层的磁盘复制技术。此外,由于DS3400的性能有限,且缓存较低,因此采用基于AIX操作系统的LVM镜像方式性能会有影响。(各种高可用技术,详见第3章的说明)

第1页

第2页

而目前IBM 最新的虚拟化存储设备V7000,即可以支持外部存储的接入,也可以支持内部存储和外部存储之间的镜像,因此可以通过V7000存储设备来实现存储的高可用,并达到同园区内容灾的目的。

1.3 容灾参考方案

1.3.1 总体架构规划

总体同园区容灾的架构如上图所示,建议新增一套IBM V7000存储设备,并配置外部存储接入功能。

通过两对SAN 交换机之间的2km 裸光纤直连,可以将现有的DS3400作为V7000存储设备的外接存储,DS3400上的卷以image 模式接入到V7000中,并和V7000上的卷组成镜像的卷(采用了V7000的VDM 功能)。即当服务器写数据到VDM 镜像后的卷的时候,V7000会自动在V7000的卷和DS3400的卷中各写一份,保障了在本地和远端同时都有一份相同的数据。

在光纤交换机上,需要在每台SAN 交换机上都配置一个单模长波模块用于2km 裸光纤的直连。

第3页

1.3.2 V7000 外部存储虚拟化功能说明

V7000具有外部存储虚拟化功能,该功能沿袭了目前业界最成熟的存储虚拟化产品IBM SVC 的几乎所有功能,具有当前最广泛的存储兼容性能,可以连接大部分的光纤存储设备。

外部存储系统虚拟化允许您将外部光纤通道控制器的磁盘容量添加到IBM Storwize V7000存储容量池中,从而提高软件价值和性能优势。对于不再用作主存储系统,但可通过重新部署而用作备用存储系统的现有存储产品来说 — 例如,用作闪速拷贝目标或者用于保存归档数据的存储系统 — 这将能够延长它们的使用寿命,但不影响IBM Storwize V7000的管理及存储功能发挥高效率的优势。

1.3.3 V7000 VDM (虚拟磁盘镜像)功能说明

通过IBM SVC 或V7000(SAN Volume Controller )来实现两台存储系统上的磁盘进行镜像后为服务器提供存储。上图是通过SVC 或V7000实现两台阵列之间存储镜像的示意图。

对于底层的磁盘阵列来说,其使用方式与现在相同,对其内部的磁盘先进行RAID ,然后在RAID 组上进行逻辑磁盘(LUN )的划分。如上图的例子中,首先对两个阵列的磁盘做

RAID5,然后在左边阵列中再作成LUNa和LUNb两个逻辑磁盘,同样在右边阵列中可以作成LUN1和LUN2两个逻辑磁盘。

在没有SVC或V7000的时候,我们要把这些LUN map给对应的服务器,然后在服务器上就可以找到这些硬盘。但是这样并没有实现磁盘阵列之间的Mirror。

现在,我们有了SVC或V7000设备,这个时候不再把这些LUN map给服务器,而是map 给SVC或V7000。SVC或V7000把这些map过来的磁盘当做是可使用的原始磁盘,称之为Managed Disk。

SVC或V7000再对Managed Disk进行处理,可以在不同的Managed Disk之间进行镜像作成供服务器使用的Virtual Disk。如上图,SVC或V7000将从左边磁盘阵列获得的Ma和从右边阵列获得的M1进行Mirror后,形成了Virtual Disk为Vdisk1。然后再将Vdisk1 map给服务器。服务器就像使用本地磁盘一样的使用Vdisk1。

这个时候我们回头看一下Vdisk1的组成,它是由两个阵列中的LUN通过Mirror方式组成的。

使用SVC或V7000进行跨阵列Mirror后,对于服务器获得的Vdisk来说,不会因为任何一个磁盘存储系统的故障而出现问题。这样大大提高了存储系统的可用性,为前端应用系统的开展提供了更好的保障。

1.3.4后期存储扩展建议

由于V7000具有外部存储扩展功能,同时也支持自身的扩展柜,因此在后期的扩展中,可以同时增加自身的扩展柜和外部存储,来实现本地存储的高可用性,即本期所建设的同园区容灾功能。

同样,V7000存储设备还具有远程复制功能,通过V7000的远程复制功能,今后还可以帮助XXXX建设异地的容灾系统。

1.4系统配置参考

●IBM V7000存储系统

?双控制器节点,16GB缓存

第4页

?8个8Gb FC接口,4个1Gb iSCSI接口

?24块300GB 10K转 SAS磁盘

?外部存储虚拟化功能许可(1个扩展设备)

●SAN交换机四台:

?每台配置15个8Gb FC接口和1个单模长波接口。

●项目实施服务

●服务器设备需根据实际需求来配置。

第5页

第2章V7000存储设备介绍

2.1IBM V7000存储系统概述

IBM Storwize V7000是功能强大的存储系统,结合了适当的软硬件组件,提供单一控制点来帮助提高存储效率。IBM Storwize V7000支持中型企业的存储资源虚拟化、整合与层级,旨在提高应用可用性和资源利用率。在您的IT基础架构中,无论是全新还是现有存储资源,该系统都提供易用的、经济高效的、卓有成效的管理功能。

2.2通过IBM System Storage Easy Tier增强访问能力

Easy Tier能够将常被访问的数据自动迁移到高性能的固态驱动器中,从而提高利用效率。Easy Tier功能运行在细粒度的“子LUN”环境中,能够基于IO模式和驱动器特征将数据片段自动转移到适当级别的驱动器上,无需管理员的进一步互动。Easy Tier还允许您在不中断系统运行的情况下手动调整整个逻辑卷的位置,从而进一步提高灵活性和控制力,允许企业根据应用需求来更加有效地调节系统性能。

Easy Tier允许您轻松省钱地部署SSD。Easy Tier允许您创建混合型存储资源池并且在托管磁盘组群中将存储资源分割成两层,通常是SSD和HDD。此外,Easy Tier也支持其他的分割方法和定义。

找出最繁忙的子LUN数据单元并且将它们自动转移到高性能SSD中。

剩下的数据单元可利用容量更大的低价位驱动器来创造最佳客户价值。

系统可自动监控和管理SSD或HDD托管磁盘组群中的卷,您也可以通过将热点数据块转移到SSD并且将冷点数据块转移到HDD来自动处理它们。

第6页

第7页

2.3 通过精简调配来优化效率

使用精简调配功能,应用可以动态增长,但只会占用它们实际使用的空间。精简调配功能旨在将业务成本控制在较低的水平,能够基于每名用户在任何指定时间点的最低空间需求通过灵活的方式在多名用户之间分配磁盘存储空间,从而优化效率。这不仅能够减少对存储硬件的使用,而且还能减少用电量、产热量和硬件的场地需求。

例如,在某个环境中,没有任何用户请求超过10 GB 的数据,每名用户有效使用的数据平均不到 6 GB 。在这个环境中,存储管理员可以决定通过精简调配卷的方式给每名用户分配10 GB 的虚拟容量,每名用户分配到的实容量仅为6 GB 。如果有100名用户,则虚拟容量总计1 TB ,而存储子系统中的实容量仅为600 GB 。如果管理员根据以往经验知道并非所有的用户都在同一时间使用全部物理容量的话,则这种做法是有效的。有些用户只请求4 GB 或更少的数据,有些用户则可能请求全部的10 GB 数据。但前提仍然是用户平均请求的实容量不能超过6 GB 。存储管理员仍有责任监控实容量的分配情况,以免出现存储容量不够用的问题,当容量到达门限值时,存储系统将会发出警报并且进行跟踪监控。

2.4 动态迁移避免系统中断运行

IBM Storwize V7000使用虚拟化技术来防止主机应用受到物理存储变化的影响,因此,您在更改存储基础架构时,您的应用仍可继续正常运行,进而您可以正常开展业务。

第8页

数据迁移是计划内停机的最常见原因之一。Storwize V7000提供动态数据迁移功能,当您在现有存储器与全新系统之间迁移数据或者在Storwize V7000系统的阵列之间迁移数据时,可保持用户继续访问数据。例如,当您为了实现负载均衡而更换老式存储器时,或者当您在层级式存储基础架构中迁移数据时,都可使用这项数据迁移功能。

IBM Storwize V7000动态迁移功能可以创造商业价值并且提高效率。动态迁移可将创收速度从几周甚至几个月缩短为几天、最大限度地缩短迁移造成的故障停机时间、消除添加迁移工具的成本、并且帮助您避免与延期租借相关的罚款和其他维护开销,从而真正实现成本节约。

2.5 通过复制服务来保护数据

IBM Storwize V7000提供极为丰富的闪速拷贝(FlashCopy)功能,旨在创建近即时的活动数据拷贝,以便顺利开展备份工作或者并行处理活动。您最多可为每个卷创建256个拷贝。

IBM Storwize V7000支持增量闪速拷贝操作,只拷贝自闪速拷贝功能上次运行以来发生变化的部分源或目标卷,并且支持“拷贝的拷贝”功能 — 对副本进行拷贝 — 从而提高效率。这些功能可用于帮助您基于生产数据来维护和更新测试环境。

若与IBM Storwize V7000的精简调配功能配合使用,您可以只使用完整物理拷贝所需的部分存储资源来创建拷贝。这项功能名为“空间高效型闪速拷贝”(Space Efficient FlashCopy),旨在帮助您提高存储资源的总体利用率。

逆向闪速拷贝(Reverse FlashCopy)功能可令闪速拷贝目标变成源卷的恢复点,但不会破坏闪速拷贝的关系,也无需您等待最初的拷贝操作完成后才能采取行动。这项新功能将帮助您立刻使用磁盘备份拷贝来恢复受损数据,从而加快应用恢复速度。

IBM Tivoli Storage FlashCopy Manager 专为当今的商业环境而设计,旨在支持应用服务器24小时全天候运行 — 并且全面保护数据。如果您拥有一个24x7全天候运行的环境,将无法容

第9页

忍丢失任何数据,也不能接受为了充分保护数据而数小时中断关键系统的正常运行。但是,随着需要保护的数据量继续呈现指数增长,企业也日益需要将备份数据导致的故障中断控制在绝对最低水平,但IT 流程已经接近断点。Tivoli Storage FlashCopy Manager 可以帮助您基于IBM Storwize V7000 FlashCopy 的备份和恢复功能对备份工作进行调整,从而最大限度地降低备份影响。该产品可将备份与恢复时间从几小时缩短为几分钟 — 通过简化管理工作以及自动执行存储管理任务来提高生产力。 运行在IBM

Storwize V7000系统之间不

同位置的城域镜像和全局镜像功能能够帮助

您创建数据拷贝,以便在数据中心发生灾难

性事件时使用。城域镜像设计用于在“城

市”距离(最长300千米)维护完全同步拷

贝,而全局镜像则设计用于异步运行,以便

帮助维持更长距离的拷贝(最长8000千米)。

这两项功能均支持VMware vCenter Site

Recovery Manager ,以便快速实现灾难恢

复。

第10页

2.6 管理工具与IBM Systems Director 相集成

这个解决方案通过集成方法来管理IBM 服务器和存储器,旨在帮助IT 机构解决与同时管理物理和虚拟服务器基础

架构相关的重大忧虑 — 包括监控和修复功能,以便提高可用性、运营效率和基础架构规划效力。一名系统管理员即可使用单一管理界面来同时管理并且操作IBM 服务器(System x?、System p?和BladeCenter?)、网络基础架构及IBM 存储器(包括IBM Storwize V7000)。

2.7 高性能SSD 支持 对于需要高速磁盘及快速数据存取的应用来说,IBM 通过300 GB 2.5" E-MLC (企业级多级单元) SSD 提供固态驱动器,在一个支持向外扩展高性能SSD 的系统中最多提供72 TB

的物理容量。

2.8 外部存储系统虚拟化

外部存储系统虚拟化允许您将外部光纤通道控制器的磁盘容量添

加到IBM Storwize V7000存储容量池中,从而提高软件价值和性能优

势。对于不再用作主存储系统,但可通过重新部署而用作备用存储系统的现有存储产品来说—例如,用作闪速拷贝目标或者用于保存归档数据的存储系统—这将能够延长它们的使用寿命,但不影响IBM Storwize V7000的管理及存储功能发挥高效率的优势。

第11页

第3章存储高可用技术建议

云计算服务管理平台是为了加强和简化云计算平台的统一管理所提供的一整套管理系统。在银鹭集团的云计算项目中,建议在一期完成云基础平台后,于二期系统建设的时候部署。以下是云计算服务管理平台的相关介绍。

3.1存储高可用性的内容

我们先来分析一下,高可用性所覆盖的内容。

首先,业务连续性由三级支撑构成。高可用性,扮演着其中最为基本的一级:

●高可用性(High Availability)

要求容错的硬件、自动诊断以及故障隔离、预分析、冗余等。其中,冗余是其最核心的特征。

●数据复制(Data Replication)

在同城、异地,或者同城及异地进行数据的有效复制

●数据恢复(Data Recovery)

非计划停机时,进行保护和恢复,满足恢复点目标和恢复时间目标

高可用性,是体现在系统的各个细节中。从一个典型的IT系统拓扑来看,它的主要实现层次如下图所示:

第12页

本地存储设备层次的高可用性,如图中蓝色虚线方框所示,主要从以下三方面考虑:

●冗余SAN网络

SAN交换机冗余配置,主机光纤通道卡、存储光纤接口双配置,冗余连接等。这部分设计用于防范通道、接口和网络的单点故障。

●存储设备个体高可靠

除普遍支持RAID保护技术外,目前的部分高端企业级存储,还采用全冗余设计、镜像缓存等技术来进行自身保护。这部分设计和使用,侧重在于保证存储设备单个个体内的数据安全。当存储设备出现全面故障,不能运转时,最多只能保证“数据不丢失”,不能支持“数据持续访问”。

●双存储设备

第13页

如上图中红色虚线部分所示,配置双磁盘设备,存放双数据拷贝。保证在单个存储服务器出现故障时,首先实现数据不丢失,其次实现业务的连续运行。

在这三方面中,冗余SAN网络、存储设备个体高可靠相对为人所熟悉,不再赘述。下面所谈的存储高可用性方案重点,将集中在“双存储设备”的环节上。

3.2存储高可用性方案的主要实现方式

存储高可用性,有三种主要的实现方式:

方式三:采用SVC或V7000虚拟存储实现逻辑卷镜像

第14页

3.2.1方式一:磁盘设备间数据镜像( 如LVM Mirror )

通过pSeries的LVM(逻辑卷镜像)等技术,在两套磁盘设备间,建立数据镜像关系。两套存储设备同时处于活动状态。生产主机在写数据时,会同时写入两套磁盘设备中。

该方式能够提供最佳的持续可用性。当一台存储设备出现整机故障时,由另一台存储设备独立工作,应用不会受到中断。

配置双磁盘系统,通过操作系统的卷管理功能,在磁盘间进行数据镜像,保证两套磁盘设备保存有实时相同的数据拷贝。可以有效避免由于单一磁盘系统发生故障而导致的系统意外宕机。充分提高系统的连续可用性。

这种双磁盘系统间数据镜像方式,是基于IBM p系列主机系统的LVM(逻辑卷管理)功能实现的。LVM功能,是IBM在UNIX系统创先使用的磁盘空间管理功能,它嵌入在AIX核心功能中,具有速度快、功能强大、管理方便等优点。LVM功能和IBM存储系统配合,是目前技术成熟度高、投资相对较低、实施快速简便、应

用行之有效的本地高可用解决方案和容灾方案。

第15页

在实施IBM LVM的数据镜像方案时,分别将磁盘系统A和磁盘系统B,通过光纤HBA卡连接到SAN交换机上,接入SAN网络。这时,主机会有效识别两套存储系统。之后,通过主机的LVM管理器,将需要高可用保护的数据,在两套磁盘系统上建立镜像关系。一份数据拷贝放置在磁盘系统A上,另一份数据拷贝放置在磁盘系统B上,两份数据拷贝保持着实时同步关系。读数据时,可以从任意一份数据拷贝中读出,提高性能;写数据时,两份数据拷贝被同时修改。当任意一个磁盘系统发生故障,即其中一份数据拷贝失效时,另一份数据拷贝照常发挥作用,业务不会停顿。非常好地保证了数据的高可用性。

LVM 可以为一个每一个数据卷提供多份拷贝,它可以支持2~3份数据拷贝。该功能包含在p系列主机AIX操作系统中。

采用这种方式,业务和应用系统的运行可以通过集群软件HACMP进行主机之间的故障接管,实现应用系统运行功能的高可用性;数据存储系统可以采用LVM进行磁盘存储系统之间的故障接管,实现应用系统数据访问的高可用性。这样,即使有一半的主机系统和一半的存储系统发生故障,不能正常工作,整个系统也不会发生瘫痪,仍旧可以继续运行,充分满足了业务连续运行的要求。

应用LVM的方案对用户的现有环境没有改变,不存在数据集中迁移的问题,而且业务系统保持同时在线,不存在系统接管、应用重新启动的问题,可以实现系统的平滑过度。

实施LVM方案,既可以在相同型号的IBM存储产品之间进行,也可以在不同型号的IBM存储产品之间进行。

下面简要说明LVM的实施过程。

LVM为操作系统的卷管理器,对于IBM的存储设备,在相同或者不同型号的磁盘系统上,二个磁盘系统的磁盘空间可组成同一VG(volume group), 对操作系统来说磁盘A的盘和磁盘B的盘都是相应/dev/dsk 下的设备号,同一VG又可以分成逻辑卷( logical volumes),每个逻辑卷之间又可以在线的做镜像,所以可以把

第16页

磁盘B的盘加到磁盘A的VG里,形成逻辑卷,用LVM使磁盘B的相应的卷成为磁盘A的镜像。

作为一个完善的高可靠性和高连续可用性系统应该能够同时满足数据备份与应用切换的需求,其中应用切换已经由HACMP高可用性集群实现,下面针对该方案中的数据同步部分加以分析。

为了实现数据的同步,我们利用数据镜像功能LVM,为已有的磁盘A(下图所示之“数据拷贝一”)上的生产数据添加一个拷贝,并将其镜像设备指定为磁盘B(下图所示之“数据拷贝二”)。

正常工作模式下,数据的写入操作可以用下图说明:

数据更新流向图

生产系统对磁盘A的“数据拷贝一”的任何更新都实时在

第17页

磁盘B的“数据拷贝二”得到更新,“数据拷贝一”和“数据拷贝二”的更新方式有顺序方式、并行方式等多种机制可供选择。一般使用并行方式以增加整体性能。

当存储系统A发生故障时,生产无需停顿,生产主机利用存储系统B上的数据拷贝继续运行。如下图所示:

本地存储故障

当对存储设备A进行维修时,断开镜像关系;存储设备A 修复后,恢复数据镜像关系,数据自动在A和B的两份拷贝间同步,之后恢复到两份拷贝同步运行模式。

第18页

如何构建高可用性HIS系统方案

构建高可用性HIS 近几年来,我国的HIS系统建设已从单纯的经济管理逐步向以病人为中心的临床应用发展,如联机检验数据采集、PACS系统以及电子病历等等,使医院对HIS系统的依赖程度越来越高,这就要求HIS系统需要达到7X24小时永不间断地高效可靠运行,计算机集群系统能够较好地满足这一要求。 1集群系统及其基本架构 1.1 集群的概念 集群就是把多个独立的计算机连接在一起,面对客户机作为一个虚拟整体,使整个系统能够提供更大的可用性、更好的可伸缩性和更强的容灾能力。 1.2 集群系统的基本构成 一个集群系统通常由多个服务器(或称为节点)、共享存储子系统和使节点可以进行信息传递的内部节点连接构成。图1为两节点集群的基本架构。 每个集群节点具有两类资源:非共享资源和共享资源。非共享资源包括安装网络操作系统的本地硬盘、系统页面文件(虚拟内存)。本地安装的应用程序,以及特定节点访问的各种文件。共享资源包括存储在共享设备中的文件,每个集群节点使用共享存储系统访问集群的quorum资源和应用程序数据库等。 1.3 集群系统中的几个重要组件 ①后台共享存储设备:所有的节点都必须与至少一个集群系统的共享存储设备相连。共享存储设备将存储集群本身的系统数据及应用程序所产生的数据。 ②集群内部网络通讯:这个网络提供信息传递的服务,被称为心跳网络,它用来传递各个节点的状态。内部连接可采用高带宽的通讯机制(例如千兆以太网),以确保集群中的节点可以快速交换信息和同步数据。 ③公共网络:为客户端提供访问服务的网络,这个网络为其它的应用服务提供必要的网络通讯基础。 ④虚拟的前台界面:所有的节点被合为一组,有一个虚拟的服务器名称,为了管理集群系统,也需要为集群提供一个名称。应用程序在集群环境下运行的时候,也需要创建自己的虚拟服务器名称,便于客户端的访问。 1.4 集群中节点的运行模式 在集群中节点可以有几种运行模式,取决于实际应用环境。 ①Active/passive模式。在两个节点集群环境中,其中一个集群节点处理所有集群应用请求而另外一个节点则只简单地等待那个起作用的节点失效。这种Active/passive集群方式从性能价格比方面来讲并不合算,因为其中一个服务器在大多数时间处于空闲状态。但在失效时应用可以完全使用另一个服务器的处理能力,所以这种配置比较适用于一些关键业务环境。 ②Active/active模式。在集群中每一个节点都作为一个虚拟的服务器,当一个应用运行在节点A时,节点B不需要处于空闲状态以等待节点A的失效,节点B可以在为节点A的资源提供失效恢复能力的同时运行它自己的集群相关应用。由于这种模式各个系统都是独立运行,因此在资源的应用上其效率要更高一些。但一个Active/active方式的节点必须具备相应的能够处理两个节点上的负载的能力(在发生失效恢复事件时),否则接管了失效节点的服务也会很快因不堪重负而垮掉。 ③3-active/passive模式。Microsoft Windows 2000 Datacenter Server支持这种配置方式,由三个服务器共同作为一个虚拟服务器运行,第四个服务器作为备份服务器,当虚拟服务器中任何一个服务器出现故障,备份服务器接管其原有的应用和资源。这种集群环境提供更强大的处理能力,适用于更高的企业用户需求,能够满足更多的客户访问。

Oracle数据库高可用解决方案


甲骨文最高可用性架构 骨 最高 用性架构 Maximum Availability Architecture

议程表
? ? ? ? ? 甲骨文简介 高可用性介绍 传 高 用性分析 传统高可用性分析 甲骨文高可用性方案介绍(MAA) 客户成功案例分享
2

Oracle公司概揽
总揽
? ? ? ? ? ? 从08财年收入$22.4B,11财年收入35.6B 在40多项产品或市场领域占据业界第一 320,000客户跨越145国家 10W员工规模 (1 in i 3 joined j i df from acquisition) i iti ) Oracle在线社区上有超过五百万开发者 34年从业经验
革新和创新
? 超过3,000 3 000个产品,拥有 个产品 拥有2,000 2 000多个专利 ? 09财年投入$3B 研发和测试资金 ? 7,500 售后支持人员, 支持27国语言
3

今天的甲骨文公司
? 全球最大的企业软件供应商 ? 数据库市场占有率第一 ? 中间件市场占有率第一 ? 应用软件市场占有率第一 ? 服务器市场占有率第三 ? 开源产品的领军者 ? 虚拟化产品的竞争者 ? 云计算方案供应商
FAST?=?FusionMiddleware Applications System Tech
4

议程表
? ? ? ? ? 甲骨文简介 高可用性介绍 传 高 用性分析 传统高可用性分析 甲骨文高可用性方案介绍(MAA) 客户成功案例分享
5

高可用性集群解决方案设计HA

1.业务连续 1.1.共享存储集群 业务系统运营时,服务器、网络、应用等故障将导致业务系统无常对外提供业务,造成业务中断,将会给企业带来无法估量的损失。针对业务系统面临的运营风险,Rose提供了基于共享存储的高可用解决方案,当服务器、网络、应用发生故障时,Rose可以自动快速将业务系统切换到集群备机运行,保证整个业务系统的对外正常服务,为业务系统提供7x24连续运营的强大保障。 1.1.1.适用场景 基于共享磁盘阵列的高可用集群,以保障业务系统连续运营 硬件结构:2台主机、1台磁盘阵列

主机 备机心跳 磁盘阵列 局域网 1.1. 2.案例分析 某证券公司案例 客户需求分析 某证券公司在全国100多个城市和地区共设有40多个分公司、100多个营业部。经营围涵盖:证券经纪,证券投资咨询,与证券交易、证券投资活动有关的财务顾问,证券承销与保荐,证券自营,证券资产管理,融资融券,证券投资基金代销,金融产品代销,为期货公司提供中间介绍业务,证券投资基金托管,股票期权做市。 该证券公司的系统承担着企业的部沟通、关键信息的传达等重要角色,随着企业的业务发展,系统的压力越来越重。由于服务器为单机运行,如果发生意外宕机,将会给企业的日常工作带来不便,甚至

给企业带来重大损失。因此,急需对服务器实现高可用保护,保障服务器的7×24小时连续运营。 解决方案 经过实际的需求调研,结合客户实际应用环境,推荐采用共享存储的热备集群方案。部署热备集群前的单机环境:业务系统,后台数据库为MySQL,操作系统为RedHat6,数据存储于磁盘阵列。 在单机单柜的基础上,增加1台备用主机,即可构建基于共享存储的热备集群。增加1台物理服务器作为服务器的备机,并在备机部署系统,通过Rose共享存储热备集群产品,实现对应用的高可用保护。如主机上运行的系统出现异常故障导致宕机,比如应用服务异常、硬件设备故障,Rose将实时监测该故障,并自动将系统切换至备用主机,以保障系统的连续运营。

高可用软件系列方案之二(存储高可用)讲解

高可用方案之二 高可用中的存储容灾方案 北京市科瑞讯科技发展股份有限公司

企业和事业单位的运转越来越依赖于计算机系统,如果一旦这个数据处理中心无法正常运转,就会造成业务停顿,导致不可挽回的损失。 随着信息时代的到来,关键数据的安全、持续可用问题直接关系到企业的生存和发展。用户对于保证数据的安全、持续可用的方案需求也变得多元化、复杂化,单一的解决方案已经逐渐不能满足用户的实际需求。 中金富捷凭借其丰富的研发经验,为您提供高可用性系列产品和优质的服务,推出了中金富捷高可用存储容灾解决方案,目的在于保证数据永不丢失和系统永不停顿,彻底解决传统高可用系统中存储设备单点故障的风险。 而采用中金富捷科技有限公司硬盘虚拟化产品SyMirror,可以最大限度的保护用户的数据信息,将用户的不同的存储设备进行同步复制,同时虚拟存储系统提供用户透明化的存取访问,任何一台存储设备的故障都会在SyMirror软件的检测下迅速切换到备用存储设备继续使用。而故障的存储设备修好后,重新加入SyMirror系统后,SyMirror会自动将增量数据同步到加入的存储设备。 具有国际领先技术的中金富捷SyMirror软件,具有以几个特点: 1、数据实时同步功能,确保两台存储设备的数据在任保时候保持一致。 2、透明化的数据存取功能,任何一台存储设备的损坏都不影响用户使用存储设备。 3、虚拟存储中的任何一个真实的存储设备都可以在任保时候轻松离线工作。 4、智能增量数据实别功能,确保加入虚拟系统中的存储设备进行快速增量同步。 5、存储设备之间的容灾切换时间小于1秒钟,对用户存取数据几乎无任何影响。 6、同PlusWell HA软件系统紧密配合,随动切换。实现真正意义的高可用冗余存储方 案。 北京中金富捷科技有限公司的高可用存储容灾方案结合了PlusWell HA高可用软件的高可用性及PlusWell SyMirror虚拟存储软件的透明化特点,结合二者之优势为客户提供了一套没有单点故障的高可用存储容灾方案。 一:方案特点 1、传统高可用解决方案(双机热备): 主要以一台共享的存储设备提供数据共享存储区域,两台或两台以上的服务器提供主备两种状态,当主机故障时,备机接管主机工作。实现业务的可持续性工作。其工作原理如下:

医院无线网络整体解决方案

医院无线网络整体解决方案 一.应用需求 随着信息技术的快速发展,医院信息系统在我国已得到了较快发展,国内多数医院已建立起以管理为主的HIS系统,建立了以管理为主的HIS系统,当前的发展重点则是建设以病人为中心的临床信息系统CIS(ClinicalInformationSystem)。临床信息化系统包括医生工作站系统、护理信息系统、检验信息系统(LIS)、放射信息系统(RIS)、手术麻醉信息系统、重症监护信息系统、医学图像管理系统(PACS)等子系统,而这些系统将以病人电子病历EMR(ElectronicMedicalRecord,EMR)为核心整合在一起。 随着医疗改革的推进,医院正朝着以终末质量管理向环节质量管理转变,从而提高医疗服务质量,缓和医患关系,提高医院的服务效率。与以病人为中心的服务理念相适应,医院信息化也从传统的内部管理为主的HIS系统,向以病人为核心的临床信息化系统转变。伴随着临床信息化,医院正逐步地实现无纸化、无胶片化和无线化。随着无线局域网技术的不断成熟和普及,无线局域网在全球范围内医疗行业中的应用已经成为了一种趋势。作为医院有线局域网的补充,无线局域网(WLAN)有效地克服了有线网络的弊端,利用PDA、平板无线电脑和移动手推车随时随地进行生命体征数据采集、医护数据的查询与录入、医生查房、床边护理、呼叫通信、护理监控、药物配送、病人标识码识别,以及基于WLAN的语音多媒体应用等等,充分发挥医疗信息系统的效能,突出数字化医院的技术优势。 二.无线网络整体设计方案 2.1.Trapeze医疗行业WLAN设计思想 2.1.1.医院中WLAN的设计要求 为客户提供好的系统解决方案,首先要准确地了解该系统应用的具体业务模式,以及实现该业务模式所需要的技术。通过医疗信息化建设中对无线网络平台应用模式的综合分析,我们总结出医疗信息化系统对无线网络平台具体要求: (a)数据保密性要求高,病人数据不能被盗取 (b)无线网络系统整体安全性要求高,包括物理设备,因为医院内人员流动性很大 (c)PACS对网络带宽稳定性要求很高,VoWLAN对网络时延要求高 (d)系统可靠性要求高,医院的有线网和供电系统都有双备份机制,当然要求无线网络也能具有着这样的保险机制。 (e)系统可维护性要求高,无线网络的维护不能成为医院信息科的负担 (f)每个病区的并发用户数较低,主要提供给医生和护士使用。如无线网络也提供给病人和访客使用,则必须与医院内网做有效隔离,同时要求能够对访客网的带宽占用做有效的限制。 2.1.2.医院中WLAN的用途 2.1.2.1.用于病区移动查房 在传统有线网络情况下,医生查房有两种选择:一是手持打印的纸质病历,供查房时查阅;二是医生在办公室工作站上事先调阅病历,并记忆分管病人的主要病史、生命体征数据,

高可用性集群系统的实现

高可用性集群系统的实现 《Linux企业应用案例精解》第8章主要介绍一下虚拟化技术应用。本节为大家介绍高可用性集群系统的实现。 8.3.5 高可用性集群系统的实现(1) VMware Infrastructure 的体系结构和典型配置 资源动态分配和高可用性的实现为构建高可用性集群系统提供了有力的保障,采用VMwae构建铁路企业高可用性集群,不需要为系统中的每台服务器分别添置备用服务器,就可以有效地降低系统成本,在基于VMware的我企业高可用性集群中,备用服务器安装了VMware ESX Server,与数据库服务器、Web服务器、OA服务器和文件服务器等构成高可用性集群,同时采用数据库备份服务器实现差额计划备份。 使用VMware提供的虚拟基础架构解决方案,服务器不再需要随着业务增加而添加,整个IT基础架构能得到有效控制并可充分发挥效能。只有当整体资源出现不足的时候,才需要增加服务器。而且对系统资源的

添加也非常简单,不再需要做繁琐的硬件维护以及业务迁移,只需要简单地将新服务器安装VMWARE? INFRASTRUCTURE 3软件,并添加到已有的VMWARE? INFRASTRUCTURE 3架构中即可,新增资源将自动分配到各个最需要的业务环境中。 在HA和DRS功能的共同支撑下,虚拟机的稳定、不间断运行得到了保证,而且,在没有搭建Cluster环境的情况下,迁移、升级依旧能不中断服务。哪怕是硬件升级、添加,正常停机维护等情况,也能够保证所有的业务正常运行,客户端访问服务器不产生业务中断现象。新的服务器虚拟化架构中另一个重点是VMware HA 的部署,它是整个服务器系统安全、可靠运行的一道防线。传统的热备机方式最大的问题就是容易造成资源的大量闲置;在正常运行状态下,所有备机服务器都处于闲置状态,不仅造成计算资源的空耗,而且还浪费大量的电力和散热资源,投资回报率非常低。 如何应对Linux系统软件包的依赖性问题 不管是初步跨入Linux殿堂的新手还是,具有多年经验的专家,在安装或编译软件包的过程中或多或少的都会遇到包的依赖问题从而导致安装过程无法继续,比如管理员在安装php软件包需要libgd.so文件,而这个文件属于gb软件包。但是在安装gb软件包时,可能这个软件包跟其他软件包又具有依赖关系,又需要安装其他软件包才行。这时有的管理员便失去耐心。在遇到这种Linux软件包依赖关系问题,该如何解决呢?在谈这个具体的措施之前,先跟大家聊聊Linux系统里的软件爱你依赖性问题。 我们把处理rpm依赖性故障的策略可以分成两类解决依赖性故障的自动方法和手工方法。但当安装不属于发行一部分的软件包时自动方法是不可用的。在描述如何手工解决依赖性故障后,将简要描述如何使用自动方法之一(YUM),但首先需要了解它们是什么及rpm如何强制实施它们。 一、什么是依赖性 程序依赖于程序代码的共享库,以便它们可以发出系统调用将输出发送到设备或打开文件等(共享库存在于许多方面,而不只局限于系统调用)。没有共享库,每次程序员开发一个新的程序,每个程序员都需要从头开始重写这些基本的系统操作。当编译程序时,程序员将他的代码链接到这些库。如果链接是静态的,编译后的共享库对象代码就添加到程序执行文件中;如果是动态的,编译后的共享库对象代码只在运行时需要它时由程序员加载。动态可执行文件依赖于正确的共享库或共享对象来进行操作。RPM依赖性尝试在安装时强制实施动态可执行文件的共享对象需求,以便在以后--当程序运行时--不会有与动态链接过程有关的任何问题。

存储高可用解决方案

方 案 建 议 书 (XXX容灾方案建议)

目录 第1章XXXX容灾方案参考 (1) 1.1 系统现状 (1) 1.2 容灾需求分析 (1) 1.3 容灾参考方案 (2) 1.3.1 总体架构规划 (2) 1.3.2 V7000 外部存储虚拟化功能说明 (2) 1.3.3 V7000 VDM(虚拟磁盘镜像)功能说明 (3) 1.3.4 后期存储扩展建议 (4) 1.4 系统配置参考 (4) 第2章V7000存储设备介绍 (6) 2.1 IBM V7000存储系统概述 (6) 2.2 通过IBM S YSTEM S TORAGE E ASY T IER增强访问能力 (6) 2.3 通过精简调配来优化效率 (7) 2.4 动态迁移避免系统中断运行 (7) 2.5 通过复制服务来保护数据 (8) 2.6 管理工具与IBM S YSTEMS D IRECTOR相集成 (9) 2.7 高性能SSD支持 (10) 2.8 外部存储系统虚拟化 (10) 第3章存储高可用技术建议 (11) 3.1 存储高可用性的内容 (11) 3.2 存储高可用性方案的主要实现方式 (13) 3.2.1 方式一:磁盘设备间数据镜像( 如LVM Mirror ) (14) 3.2.2 方式二:磁盘设备间数据复制(如PPRC或ERM) (18) 3.2.3 方式三:采用SVC或V7000或V7000实现逻辑卷镜像 (20) 3.2.4 三种HA方式的比较 (21)

第1章XXXX容灾方案参考 1.1系统现状 XXXX现有IT系统的现状大致如下图所示。采用IBM P550服务器作为数据库服务器,采用DS3400存储设备作为主存储系统。 1.2容灾需求分析 当前,XXXX计划在同一园区内建设容灾系统,在容灾中心和主生产中心之间采用2km长的裸光纤进行直连。并且,希望对现有的存储设备进行充分利旧。 IBM将针对当前所了解的情况,做出初步的方案,供XXXX容灾建设参考。 由于DS3400设备没有自身的基于磁盘的远程复制功能,因此无法采用基于存储底层的磁盘复制技术。此外,由于DS3400的性能有限,且缓存较低,因此采用基于AIX操作系统的LVM镜像方式性能会有影响。(各种高可用技术,详见第3章的说明) 而目前IBM最新的虚拟化存储设备V7000,即可以支持外部存储的接入,也可以支持内部存储和外部存储之间的镜像,因此可以通过V7000存储设备来实现存储的高可用,并达到同园区内容灾的目的。

核心系统高可用性设计

关于系统稳定性策略的探讨 1.前言 系统作为业务系统的核心,其运行稳定性和高可用性至关重要。因此,需要通过高可用性设计来尽量减少系统的计划内和计划外停机,并在系统出现故障时及时响应、快速恢复,以保障关键数据和业务系统的运行稳定性和可持续访问性。其中: 1.计划内停机是指管理员有组织、有计划安排的停机,比如升级硬件微码、升 级软件版本、调整数据库库表、更换硬件设备、测试系统新功能等时,可能需要的停止系统运行。 2.计划外停机是指非人为安排的、意外的停机,比如当硬件出现重大故障、应 用程序停止运行、机房环境遭到灾难性的破坏时所引起的业务系统停止运行。 目前,对于计划内和计划外停机,可通过消除系统中的单点失效来尽量减少停机时间。同时,通过采用可在线维护(固件升级、在线扩充、故障部件更换)的设备,并通过负载均衡机制实现应用系统的在线升级、维护,将有效消除计划内停机对业务系统的影响。此外,由于系统中采用了全面的负载均衡设计,并针对系统失效提供了可靠的数据备份恢复和多点容灾保护,因而能够有效减少系统计划外停机的恢复时间。 在造成系统宕机的原因方面,有统计中表明并非都是硬件问题。其中,硬件问题只占40%,软件问题占30%,人为因素占20%,环境因素占10%。因此,高可用性设计应尽可能地考虑到上述所有因素。对于系统而言,其整体的可用性将取决于内部的应用系统、主机、数据库等多种因素;同时,训练有素的系统维护人员和良好的服务保障也是确保系统稳定运行和故障快速恢复的关键。 2.应用系统 系统在应用软件架构设计中应从渠道层、渠道管理层、业务处理层等不同

层面通过多种措施和策略的综合设计来提高应用系统的高可用性和稳定性。 在渠道管理层和业务处理层的设计中,要考虑设置应用负载均衡、应用软件失效备援、vip服务通道、流量控制、故障隔离等机制。 1.应用负载均衡 应用软件负载均衡通过多个层次上不同的负载均衡策略一起实现整体的负载均衡,应用负载均衡的设计思路是将大量的并发访问或数据流量分担到多台节点设备上分别处理和将单个重负载的运算分担到多台节点设备上做并行处理来达到负载均衡的效果,从而提高服务响应速度,提高服务器及其他资源的利用效率,避免服务请求集中于单一节点导致拥塞。 2.应用软件失效备援 应用软件构建在面向服务的架构、设计思想上,应用服务具有较高的可灵活部署性。通过这种灵活性,结合系统基础设施的规划、部署可以实现应用软件的失效备援。系统可以考虑实现基于应用服务和基于应用服务管理框架的多种应用软件失效备援机制。 基于应用服务的失效备援是在应用服务管理框架中可以实现应用服务的冗余部署,利用硬件负载均衡设备或应用软件负载均衡可以在需要时将服务请求切换到相应的冗余服务。 基于应用服务管理框架的失效备是将应用服务框架在系统中冗余部署,利用硬件负载均衡设备或应用软件负载均衡可以在需要时将服务请求切换到相应的冗余的应用服务管理框架。 3.vip服务通道 在系统中,从系统运行稳定性、持续性及处理性能的角度,配合物理设备、系统支撑软件(数据库系统、操作系统)的相关措施,应用软件可通过构建VIP服务通道的方式降低应用服务运行期间的相互影响。服务通道可以基于不同业务产品或不同应用服务管理框架的不同粒度来设置,从而满足部分应用处理资源只响应特定的服务请求或不同的服务监听响应不同的通道传递过来的服务申请的功能。 4.流量控制 在系统中,从系统运行稳定性、持续性角度,配合物理设备、系统支撑软

技术方案-应用高可用解决方案(两地三中心)

英方软件数据库系统高可用解决方案 英方软件(上海)有限公司

目录 1. 概述 (1) 2. 需求分析 (2) 3.1主机配置 (3) 3.2方案拓扑图: (3) 3.3 I2高可用方案功能介绍 (4) 3.4管理控制台 (7) 5. I2的主要优势 (10) 6. 典型案例 (12) 7.公司简介 (13)

1. 概述 现代大型企业大多拥有为数众多的服务器,提供Internet与Intranet使用者各种不同的服务。如数据库系统、影像系统、录音系统、Email系统等。保持业务的持续性是当今企业用户进行数据存储需要考虑的一个重要方面。系统故障的出现,可能导致生产停顿,客户满意度降低,甚至失去客户,企业的竞争力也大打折扣。因此,保持业务的持续性是用户在选择计算机系统的重要指标。究其根本,保护业务持续性的重要手段就是提高计算机系统的高可靠性同时将数据的损失降至最低限度。 关键数据和数据库的备份操作已经成为日常运行处理的一个组成部分,以确保出现问题时及时恢复重要数据。传统的解决方案,类似于磁带机备份存在较大的缺点. 通常数据采用磁带离线备份,当数据量较大或突发灾难发生时,备份磁带无法真正及时快速恢复数据及业务。 提供有效的数据保护和高可用性服务,又在合理预算范围之内,并且能够基于你现有环境当中,获得实时数据保护,并无距离限制,为确保你重要数据的保护----包含数据库和邮件系统。I2为您提供了完美的解决方案。 I2 采用先进的异步实时数据复制技术(Asychronous Real-Time Data Replication),立即将所有服务器上对于磁盘系统的变更透过网络传输至备援服务器,而非整个档案或磁盘的镜设(Mirror),因此对于服务器的效能与网络带宽的影响都能降至最低,并能将成本降至最低,做到真正的实时数据保护. 业务数据是用户最宝贵的资产之一,数据的损失就是企业资产利润的损失,所以保护业务数据是企业计算系统的主要功能之一。实施I2的备份方案可以将用户数据的损失降至最低甚至为零。

双机双柜高可用解决方案

双机双柜高可用解决方案 关键字:双机双柜 传统的基于共享存储的双机热备方案解决了用户业务连续性的问题,当主服务器故障时,备机能及时接管保证业务7*24小时连续运行。但共享的存储设备却成为了系统的单一故障点,当盘阵不可用时,整个业务系统也必然停顿。 为了解决共享盘阵单点故障可能导致的系统不可用问题,Rose提出了相应的解决方案。仅需在现有架构基础上增加一台冗余的磁盘阵列,即构成双机双盘柜的解决方案,既消除了存储的单点故障,又使得客户拥有冗余的数据副本,大大提升了数据和业务的可靠性。 双机双柜高可用解决方案一:镜像方式 如上图所示,主、备服务器上均挂载一个磁盘阵列,部署Rose的双机双柜解决方案,通过Rose双机镜像软件利用TCP/IP网络实现主备机存储设备上的数据实时同步,当主机遭遇存储设备故障时,由于备机上有一份完全一致的数据,则可以利用备机上的数据将应用正常启动并恢复生产。 解决方案优点: ●数据存储在两台磁盘阵列上,数据冗余备份,避免磁盘单点故障 ●基于镜像技术的实施复制,保证数据的一致性

●Rose的高可用技术,保证业务连续性 ●提升高可用容灾距离 双机双柜高可用解决方案二:LAN-FREE方式 该方案中服务器、交换机、存储设备均有冗余设计,磁盘阵列A 和磁盘阵列B 分别接入不同的光纤存储交换机,服务器A 和服务器B 分别接入不同的光纤存储交换机;这种部署结构,实现了硬件设备和存储通道的完全冗余。 利用盘阵的多路径管理软件将冗余路径映射的磁盘还原为实际磁盘,通过操作系统的磁盘管理工具将不同盘阵映射的磁盘创建为RAID 1镜像卷。分别在服务器上部署需保护的应用,并将应用数据存放至不同盘阵构成的镜像卷中,实现对业务系统的高可用保护;通过系统的软RAID技术及光纤存储网络实现两台磁盘阵列中的数据同步。 冗余的存储路径设计,有效避免了存储HBA卡、光纤存储交换机、磁盘阵列、存储通道的单点故障,完全冗余的双机双柜结构保证了业务系统的连续运营和业务系统的数据安全,方案稳定性及可靠性得到保障。 解决方案优点: ●完全冗余结构,有效避免硬件设备和软件的单点故障。彻底解决了传统双机单柜模式下,磁盘阵列单点故障的情况。 ●数据的存储架构为FC-SAN,通过存储多路径管理软件实现存储通道的负载冗余,提升了业务系统数据存储的可靠性、高效性、安全性,并且基于FC-SAN 的架构具有高可扩展性。 ●高性价比的整体解决方案,既帮助用户实现了高容错,高安全,高性能的解

如何构建高可用性高扩展性的系统方案

如何构建高可用性高扩展性的系统

1高可用性 1.1避免故障 1.1.1明确使用场景 保持系统简单 1.1.2设计可容错系统 Fail Fast原则 主流程任何一步出现问题,就应该快速结束接口和对象设计要严谨 能否被重复调用 多线程并发环境下是否有异常 对象类型是否需要检查 1.1.3设计具备自我保护能力的系统对第三方资源持怀疑态度,提供降级措施1.1.4限制使用资源 内存

防止集合容量过大造成OOM 及时释放不再使用的对象 文件 网络 连接资源 线程池 1.1.5其他角度 分析可能的风险 1.2及时发现故障 1.2.1监控报警系统 1.2.2日志系统和分析系统1.3及时故障处理 1.3.1降级 1.3.2限流 1.4访问量上涨的应对策略

1.4.1垂直伸缩 增加配置 1.4.2水平伸缩 增加机器 1.4.3拆分 按业务拆库 按规则拆表 1.4.4读写分离 实时性要求不高、读多写少的系统如何快速地从写库复制到读库 1.4.5其他 容量规划 2高可扩展性 2.1垂直伸缩 2.1.1高访问量

增加CPU 锁 线程数 单线程程序 增加内存 cache JVM堆 2.1.2大数据量 分表 单表数据量减少 跨表查询、分页查询复杂度提升2.1.3计算能力 线程数提升 2.2水平伸缩 2.2.1高访问量

SNA(Shared Nothing Architecture)有状态的部分,放入缓存或数据库中有状态的情况 存在内存的状态 广播同步 例如session同步 单台机器容量有限 分布式缓存 一致性hash 文件 直连存储DAS((Direct-Attached Storage) 网络存储 NAS(Network Attached Storage) SAN(Storage Area Network) 分布式文件系统 GFS HDFS 数据库问题 cache

高可用解决方案

高可用解决方案 数据中心高可用网络系统设计 数据中心的故障类型众多,但故障所导致的结果却大同小异。即数据中心中的设备、链路或server发生故障,无法对外提供正常服务。缓解这些问题最简单的方式就是冗余设计,可以通过对设备、链路、Server提供备份,从而将故障对用户业务的影响降低到最小。 但是,一味的增加冗余设计是否就可以达到缓解故障影响的目的?有人可能会将网络可用性与冗余性等同起来。事实上,冗余性只是整个可用性架构中的一个方面。一味的强调冗余性有可能会降低可用性,减小冗余所带来的优点,因为冗余性在带来好处的同时也会带来一些如下缺点: w 网络复杂度增加 w 网络支撑负担加重 w 配置和管理难度增加 因此,数据中心的高可用设计是一个综合的概念。在选用高可靠设备组件、提高网络的冗余性的同时,还需要加强网络构架及协议部署的优化,从而实现真正的高可用。设计一个高可用的数据中心网络,可参考类似OSI七层模型,在各个层面保证高可用,最终实现数据中心基础网络系统的高可用,如图1所示。 网络架构高可用设计 企业在进行数据中心架构规划设计时,一般需要按照模块化、层次化原则进行,避免在后续规模越来越大的情况再进行大规模的整改,造成时间与投资浪费。 模块化设计

模块化设计是指在对一定范围内的不同功能或相同功能不同性能、不同规格的应用进行功能分析的基础上,划分并设计出一系列功能模块,模块之间松耦合,力求在满足业务应用要求的基础上使网络稳定可靠、易于扩展、结构简单、易于维护。 层次化设计 包括网络架构分层和应用系统分层两个方面。在当前网络及安全设备虚拟化不断完善的情况下,应用系统分层可完全通过设备配置来实现逻辑分层,不影响网络的物理拓扑。对于网络架构层次化设计,选择三层架构还是二层架构是不少企业进行数据中心网络建设时面临的难题。 从可靠性的角度来看,三层架构和二层架构均可以实现数据中心网络的高可用。近年来随着云计算的逐渐兴起,二层扁平化网络架构更适合云计算网络模型,可以满足大规模服务器虚拟化集群、虚拟机灵活迁移的部署。二层架构和三层架构两者之间没有绝对的优劣之分,企业用户可根据自身的业务特点进行选择。也可以先二层,后续针对某些特定的功能分区采用三层组网。 设备层高可用设计 设备可靠是系统可靠的最基本保证,数据中心核心交换区设备的可靠稳定尤为重要。尽管可以通过架构、策略、配置等的调整和优化等多种手段降低核心设备的故障几率以及影响范围,但若要解决最根本的设备本身的软硬件故障,则必须选用数据中心级的网络设备。 关于数据中心级设备,业界还没有标准的定义,但从目前主流网络设备供应商提供的数据中心解决方案产品可以看出,数据中心级交换机应具备以下特征: 1) 控制平面与转发平面物理分离 控制平面与转发平面硬件物理分离,引擎切换时不影响转发,可实现零丢包。同时控制平面与转发平面均提供独立的冗余架构,实现控制与转发两级冗余,保证更高的可靠性。 2)关键部件更强的冗余能力 除了引擎和交换网板的冗余外,此类设备的电源一般均可以配置多块,实现N+M的冗余,保证电源的可靠性更高;另外风扇的冗余也由原来的风扇级冗余,提高到了风扇框冗余,每个独立的风扇框内多个风扇冗余。 3)虚拟化能力 数据中心的复杂度越来越高,需要管理的设备也越来越多,设备的虚拟化可将同一层面(核心、汇聚、接入)的多台设备虚拟化为一台,进行设备的横向整合,简化设备的配置和管理。 4)突发大流量的缓冲能力

RoseHA 高可用性系统解决实施方案

RoseHA 高可用性系统解决方案

————————————————————————————————作者:————————————————————————————————日期: 2

RoseHA 高可用性系统解决方案 RoseHA 高可用性系统解决方案以低成本且简便的方式,实现了两个节点的Cluster环境.客户只需要在 原有的单机系统上增加一台服务器、一个共享存储设备,通过Rose基于共享存储的高可用解决方案即 可实现关键业务的7X24小时连续运行,对于需要更有效应用现有服务器资源的用户而言,是最为适用 的解决方案。 RoseHA的工作原理 RoseHA双机系统的两台服务器(主机)都与磁盘阵列(共享存储)系统直接连接,用户的操作系统、应用软件和RoseHA高可用软件分别安装在两台主机上,数据库等共享数据存放在存储系统上,两台主机之间通过私用心跳网络连接。配置好的系统主机开始工作后,RoseHA软件开始监控系统,通过私用网络传递的心跳信息,每台主机上的RoseHA软件都可监控另一台主机的状态。当工作主机发生故障时,心跳信息就会产生变化,这种变化可以通过私用网络被RoseHA软件捕捉。当捕捉到这种变化后RoseHA 就会控制系统进行主机切换,即备份机启动和工作主机一样的应用程序接管工作主机的工作(包括提供TCP/IP网络服务、存储系统的存取等服务)并进行报警,提示管理人员对故障主机进行维修。当维修完毕后,可以根据RoseHA的设定自动或手动再切换回来,也可以不切换,此时维修好的主机就作为备份机,双机系统继续工作。 RoseHA实现容错功能的关键在于,对客户端来说主机是透明的,当系统发生错误而进行切换时,即主机的切换在客户端看来没有变化,所有基于主机的应用都仍然正常运行。RoseHA采用了虚拟IP地址映射技术来实现此功能。客户端通过虚拟地址和工作主机通讯,无论系统是否发生切换,虚拟地址始终指向工作主机。在进行网络服务时,RoseHA提供一个逻辑的虚拟地址,任何一个客户端需要请求服务时只需要使用这个虚拟地址。正常运行时,虚拟地址及网络服务由主服务器提供。当主服务器出现故障时,RoseHA会将虚拟地址转移到另外一台服务器的网卡上,继续提供网络服务。切换完成后,在客户端看来系统并没有出现故障,网络服务仍然可以使用。除IP地址外,HA还可以提供虚拟的计算机别名供客户端

SQL server高可用方案

SQL server高可用方案 一、高可用的类型 ●AlwaysOn 高可用性解决方案,需要sql server 版本在2012以上 SQL Server AlwaysOn 即“全面的高可用性和灾难恢复解决方案”。客户通过使用AlwaysOn 技术,可以提高应用管理方面的工作。 SQL Server AlwaysOn 在以下2个级别提供了可用性。 *数据库级可用性 是一种“热备份”技术。在同步提交模式下,主副本的数据被同步更新到其他辅助副本,主副本与辅助副本之间可以时,辅助副本可以立即成为新的主副本。 *实例级可用性 AlwaysOn 故障转移群集实例(Failover Cluster Instance,简称FCI)可以在多个16个节点之间实现故障转移(版只支持2个节点。 当主节点发生故障时,辅助节点提升为主节点并获取共享存储中的数据,然后才在这个新的主节点服务器中启动FCI 是一种“冷备份”技术。辅助节点并不从主节点同步数据,唯一的一份数据被保存在共享存储(群集共享磁盘)●日志传送 日志传送依赖于传统的Windows 文件复制技术与SQL Server 代理。 主数据库所做出的任何数据变化都会被生成事务日志,这些事务日志将定期备份。然后备份文件被辅助数据库所属最后事务日志备份在辅助数据库中进行恢复,从面实现在两个数据库之间异步更新数据。 当主数据库发生故障时,可以使辅助数据库变成联机状态。可以把每一个辅助数据库都当作“冷备用”数据库

●其它辅助技术 对数据库进行备份,当出现故障时,手动将数据还原到服务器,使得数据库重新联机,这也可以算作实现高可用性复制(Replication)并不算是一个高可用性解决方案,只是它的功能可以实现高可用性。复制通过“发布-订阅”模式服务器间实现可用性。 SQL server复制 定义及应用:数据库间复制和分发数据和数据库对象,然后在数据库间进 过局域网和广域网、拨号连接、无线连接和Internet 将数据分配到不同位sql server复制分成三类: 事务复制通常用于需要高吞吐量的服务器到服务器方案(包括:提高可伸 点的数据、集成异类数据以及减轻批处理的负荷)。 合并复制主要是为可能存在数据冲突的移动应用程序或分步式服务器应用 交换数据、POS(消费者销售点)应用程序以及集成来自多个站点的数据 快照复制用于为事务复制和合并复制提供初始数据集;在适合数据完全刷二、高可用的服务器配置: 如果只是需要复制方式,则搭建两台相同硬件配置和操作系统版本与补丁 如果需要AlwaysOn 高可用方式,即出现故障后系统自动进行切换到备用 服务器、从服务器)相同硬件配置和操作系统版本与补丁、相同数据库版本三、各种实现方式的对比 下表将SQL Server 常用的高可用性解决方案进行综合对比。

MSSQL数据库高可用性方案

高可用MS SQL Server数据库解决方案 建设目标 减少硬件或软件故障造成的影响,保持业务连续性,从而将用户可以察觉到的停机时间减至最小,确保数据库服务7*24小时(RTO为99.9%)运转,建设一套完整的高可用性MS SQL Server数据库系统。 需求分析 服务器宕机造成的影响 服务器宕机时间使得丢失客户收益并降低员工生产效率,为了避免对业务造成影响,从两个方面采取预防措施: 一、计划宕机时的可用性: ●补丁或补丁包安装 ●软硬件升级 ●更改系统配置 ●数据库维护 ●应用程序升级 二、防止非计划性宕机: ●人为错误导致的失败 ●站点灾难 ●硬件故障

●数据损毁 ●软件故障 现有状况 ●服务器存在单点故障; ●数据库未做高可用性配置; ●数据库版本为MS SQL Server2008; ●服务器配置为CPU E7540 2.0,24G存; ●数据库容量约800G 技术解决方案 解决思路 考虑到本项目的需求和最佳性能,为了达到最佳可用性,方案采用两台数据库服务器做故障转移集群,连接同一台存储做数据库的共享存储,实现故障自动转移。同时,将旧服务器作为镜像数据库,采用SQL Server 2012的alwayson 功能来再次完成自动故障转移,并可以分担查询的负载。

架构拓扑 新数据库:承担数据库主体计算功能,用于生产数据,采用双机集群,实现自动故障转移。 旧数据库:通过镜像功能,存储数据库副本,用于发生故障时的转移。也可配置为只读,承担备份的负载。 存储:存储采用双控制器,双FC连接两台服务器,避免单点故障。 主/辅域控制器:采用双机模式,SQL Server 2012 实现高可用的必备基础设施。 高可靠性技术方案 SQL Server的企业版支持所有的高可用性功能,这些功能包括:

医院无线网络整体解决方案

目录 1. 应用需求------------------------------------------------------------------------------------------------ 2 2. 无线网络整体设计方案------------------------------------------------------------------------------ 3 2.1医院中WLAN的设计要求 -------------------------------------------------------------------- 3 2.2 用于病区移动查房-------------------------------------------------------------------------- 3 2.2.1用于床边护理 --------------------------------------------------------------------------- 4 2.2.2无线网络用于呼叫通信 --------------------------------------------------------------- 4 2.2.3无线网络用于护理监控 --------------------------------------------------------------- 4 2.2.4 无线网络用于药库管理 -------------------------------------------------------------- 5 2.2.5无线网络用于临床教育科研 --------------------------------------------------------- 5 2.2.6 无线网络用于病人识别与资产管理 ------------------------------------------------ 5 3. LECI无线网络的设计思想 ------------------------------------------------------------------------- 6 4. 无线网络总体描述------------------------------------------------------------------------------------ 6 4.1 AP电源的供给 ------------------------------------------------------------------------------- 7 5.1 AP的集中管理与自动配置 -------------------------------------------------------------- 10 5.1.1用户认证及加密 ---------------------------------------------------------------------- 10 5.1.2 基于策略的用户访问控制 ---------------------------------------------------------- 12 5.1.3用户漫游及QoS保障 --------------------------------------------------------------- 12 5.1.4用户动态负载均衡 ------------------------------------------------------------------- 13 6. 无线信号自动优化与调整------------------------------------------------------------------------ 13 7.无线网络的可扩展性 ------------------------------------------------------------------------------- 14 8. SmartPass ------------------------------------------------------------------------------------------- 14 9. 无线覆盖示意图------------------------------------------------------------------------------------- 15 10. 拓扑结构 -------------------------------------------------------------------------------------------- 17 10.1设备选型和配置---------------------------------------------------------------------------- 18 10.2交换机连接---------------------------------------------------------------------------------- 18 10.3 接入层AP部署--------------------------------------------------------------------------- 18 10.4用户接入策略------------------------------------------------------------------------------- 19 10.5 无线网络对医疗仪器的影响------------------------------------------------------------ 19 10.6 最高扩容性及投资保障 ---------------------------------------------------------------- 20 11.参考文献 --------------------------------------------------------------------------------------------- 21

相关文档
最新文档