Keepalived双机热备(LVS+Keepalived高可用性群集)

Keepalived双机热备(LVS+Keepalived高可用性群集)
Keepalived双机热备(LVS+Keepalived高可用性群集)

Keepalived双机热备

(LVS+Keepalived高可用性群集)

一,根据实验要求规划网络拓扑。

注:根据实验要求搭建网络拓扑,具体规划如图。

二,配置Keepalived双机热备主(备)服务器。

注:安装相关支持软件包,编译安装Keepalind。主配置文件在/etc/keepalived/keepalived.conf

注:配置主Keepalived服务器。Notification_email 是邮件相关信息,以邮件的方式向管理员发送程序相关的信息,这里可以不做修改。Router_id本服务器的名称。Vrrp_instance 定义一个实例。State 热备状态MASTER为主,SLAVE为备份。Interface 承载VIP地址的物理接口。Virtual_router_id 虚拟服务器的ID号,一个实例中的所有服务器的Virtual_router_id要保持一致。Priority 优先级,最高为100。Advert_int 通告时间间隔(秒)。Authentication 认证方式,同一个实例的个服务器要保持一致。Virtual_ipaddress漂移地址(VIP)。

注:备份(热备)服务器的配置,需要修改的地方有本服务器名称,热备状态和优先级。(这里使用的是eth5网卡)

注:在主(热备)服务器上可以查看到VIP。

注:备份(热备)服务器上面查看不到VIP。

三,搭建WEB服务器。

注:搭建两台WEB服务器,IP分别为192.168.1.4和192.168.1.5。四,部署LVS+Keepalived高可用性群集。

注:修改内核参数,群集相关请参考“LVS负载均衡群集”。

注:修改Keepalived服务器配置,添加虚拟web服务器(主备服务器的配置一样即可)。Virtual_server 虚拟服务器IP(即VIP)lb_algo 负载调度算法。Lb_kind群集类型。Real_server指定真实WEB服务器IP及服务(端口号)。

注:配置LVS节点。

注:查看主(热备)服务器的Keepalived及LVS状态。

注:备份(热备)服务器的Keepalived及LVS状态,正常。五,验证。

注:客户端IP参数。

注:客户端可以正常访问192.168.1.100服务器。

注:在主(热备)服务器上面可以看到访问状态信息,群集可节点正常工作。

注:当主(热备)服务器故障,会自动切换为备份(热备)服务器。

注:这个时候,原备份(热备)服务器将成为主(热备)服务器,保持群集正常工作。

如何构建高可用性HIS系统方案

构建高可用性HIS 近几年来,我国的HIS系统建设已从单纯的经济管理逐步向以病人为中心的临床应用发展,如联机检验数据采集、PACS系统以及电子病历等等,使医院对HIS系统的依赖程度越来越高,这就要求HIS系统需要达到7X24小时永不间断地高效可靠运行,计算机集群系统能够较好地满足这一要求。 1集群系统及其基本架构 1.1 集群的概念 集群就是把多个独立的计算机连接在一起,面对客户机作为一个虚拟整体,使整个系统能够提供更大的可用性、更好的可伸缩性和更强的容灾能力。 1.2 集群系统的基本构成 一个集群系统通常由多个服务器(或称为节点)、共享存储子系统和使节点可以进行信息传递的内部节点连接构成。图1为两节点集群的基本架构。 每个集群节点具有两类资源:非共享资源和共享资源。非共享资源包括安装网络操作系统的本地硬盘、系统页面文件(虚拟内存)。本地安装的应用程序,以及特定节点访问的各种文件。共享资源包括存储在共享设备中的文件,每个集群节点使用共享存储系统访问集群的quorum资源和应用程序数据库等。 1.3 集群系统中的几个重要组件 ①后台共享存储设备:所有的节点都必须与至少一个集群系统的共享存储设备相连。共享存储设备将存储集群本身的系统数据及应用程序所产生的数据。 ②集群内部网络通讯:这个网络提供信息传递的服务,被称为心跳网络,它用来传递各个节点的状态。内部连接可采用高带宽的通讯机制(例如千兆以太网),以确保集群中的节点可以快速交换信息和同步数据。 ③公共网络:为客户端提供访问服务的网络,这个网络为其它的应用服务提供必要的网络通讯基础。 ④虚拟的前台界面:所有的节点被合为一组,有一个虚拟的服务器名称,为了管理集群系统,也需要为集群提供一个名称。应用程序在集群环境下运行的时候,也需要创建自己的虚拟服务器名称,便于客户端的访问。 1.4 集群中节点的运行模式 在集群中节点可以有几种运行模式,取决于实际应用环境。 ①Active/passive模式。在两个节点集群环境中,其中一个集群节点处理所有集群应用请求而另外一个节点则只简单地等待那个起作用的节点失效。这种Active/passive集群方式从性能价格比方面来讲并不合算,因为其中一个服务器在大多数时间处于空闲状态。但在失效时应用可以完全使用另一个服务器的处理能力,所以这种配置比较适用于一些关键业务环境。 ②Active/active模式。在集群中每一个节点都作为一个虚拟的服务器,当一个应用运行在节点A时,节点B不需要处于空闲状态以等待节点A的失效,节点B可以在为节点A的资源提供失效恢复能力的同时运行它自己的集群相关应用。由于这种模式各个系统都是独立运行,因此在资源的应用上其效率要更高一些。但一个Active/active方式的节点必须具备相应的能够处理两个节点上的负载的能力(在发生失效恢复事件时),否则接管了失效节点的服务也会很快因不堪重负而垮掉。 ③3-active/passive模式。Microsoft Windows 2000 Datacenter Server支持这种配置方式,由三个服务器共同作为一个虚拟服务器运行,第四个服务器作为备份服务器,当虚拟服务器中任何一个服务器出现故障,备份服务器接管其原有的应用和资源。这种集群环境提供更强大的处理能力,适用于更高的企业用户需求,能够满足更多的客户访问。

存储、集群双机热备方案

存储集群双机热备方案

目录 一、前言 (3) 1、公司简介 (3) 2、企业构想 (3) 3、背景资料 (4) 二、需求分析 (4) 三、方案设计 (5) 1.双机容错基本架构 (5) 2、软件容错原理 (6) 3、设计原则 (7) 4、拓扑结构图 (7) 四、方案介绍 (10) 方案一1对1数据库服务器应用 (10) 方案二CLUSTER数据库服务器应用 (11) 五、设备选型 (12) 方案1:双机热备+冷机备份 (12) 方案2:群集+负载均衡+冷机备份 (13) 六、售后服务 (15) 1、技术支持与服务 (15) 2、用户培训 (15)

一、前言 1.1、公司简介 《公司名称》成立于2000年,专业从事网络安全设备营销。随着业务的迅速发展,经历了从计算机营销到综合系统集成的飞跃发展。从成立至今已完成数百个网络工程,为政府、银行、公安、交通、电信、电力等行业提供了IT相关系统集成项目项目和硬件安全产品,并取得销售思科、华为、安达通、IBM、HP、Microsoft等产品上海地区市场名列前茅的骄人业绩。 《公司名称》致力于实现网络商务模式的转型。作为国内领先的联网和安全性解决方案供应商,《公司名称》对依赖网络获得战略性收益的客户一直给予密切关注。公司的客户来自全国各行各业,包括主要的网络运营商、企业、政府机构以及研究和教育机构等。 《公司名称》推出的一系列互联网解决方案,提供所需的安全性和性能来支持国内大型、复杂、要求严格的关键网络,其中包括国内的20余家企事业和政府机关. 《公司名称》成立的唯一宗旨是--企业以诚信为本安全以创新为魂。今天,《公司名称》通过以下努力,帮助国内客户转变他们的网络经济模式,从而建立强大的竞争优势:(1)提出合理的解决方案,以抵御日益频繁复杂的攻击 (2)利用网络应用和服务来取得市场竞争优势。 (3)为客户和业务合作伙伴提供安全的定制方式来接入远程资源 1.2、企业构想 《公司名称》的构想是建立一个新型公共安全网络,将互联网广泛的连接性和专用网络有保障的性能和安全性完美地结合起来。《公司名称》正与业界顶尖的合作伙伴协作,通过先进的技术和高科产品来实施这个构想。使我们和国内各大企业可通过一个新型公共网络来获得有保障的安全性能来支持高级应用。 《公司名称》正在帮助客户改进关键网络的经济模式、安全性以及性能。凭借国际上要求最严格的网络所开发安全产品,《公司名称》正致力于使联网超越低价商品化连接性的境界。《公司名称》正推动国内各行业的网络转型,将今天的"尽力而为"网络改造成可靠、安全的高速网络,以满足今天和未来应用的需要。 1.3、背景资料 随着计算机系统的日益庞大,应用的增多,客户要求计算机网络系统具有高可靠,高

高可用性集群解决方案设计HA

1.业务连续 1.1.共享存储集群 业务系统运营时,服务器、网络、应用等故障将导致业务系统无常对外提供业务,造成业务中断,将会给企业带来无法估量的损失。针对业务系统面临的运营风险,Rose提供了基于共享存储的高可用解决方案,当服务器、网络、应用发生故障时,Rose可以自动快速将业务系统切换到集群备机运行,保证整个业务系统的对外正常服务,为业务系统提供7x24连续运营的强大保障。 1.1.1.适用场景 基于共享磁盘阵列的高可用集群,以保障业务系统连续运营 硬件结构:2台主机、1台磁盘阵列

主机 备机心跳 磁盘阵列 局域网 1.1. 2.案例分析 某证券公司案例 客户需求分析 某证券公司在全国100多个城市和地区共设有40多个分公司、100多个营业部。经营围涵盖:证券经纪,证券投资咨询,与证券交易、证券投资活动有关的财务顾问,证券承销与保荐,证券自营,证券资产管理,融资融券,证券投资基金代销,金融产品代销,为期货公司提供中间介绍业务,证券投资基金托管,股票期权做市。 该证券公司的系统承担着企业的部沟通、关键信息的传达等重要角色,随着企业的业务发展,系统的压力越来越重。由于服务器为单机运行,如果发生意外宕机,将会给企业的日常工作带来不便,甚至

给企业带来重大损失。因此,急需对服务器实现高可用保护,保障服务器的7×24小时连续运营。 解决方案 经过实际的需求调研,结合客户实际应用环境,推荐采用共享存储的热备集群方案。部署热备集群前的单机环境:业务系统,后台数据库为MySQL,操作系统为RedHat6,数据存储于磁盘阵列。 在单机单柜的基础上,增加1台备用主机,即可构建基于共享存储的热备集群。增加1台物理服务器作为服务器的备机,并在备机部署系统,通过Rose共享存储热备集群产品,实现对应用的高可用保护。如主机上运行的系统出现异常故障导致宕机,比如应用服务异常、硬件设备故障,Rose将实时监测该故障,并自动将系统切换至备用主机,以保障系统的连续运营。

高可用软件系列方案之二(存储高可用)讲解

高可用方案之二 高可用中的存储容灾方案 北京市科瑞讯科技发展股份有限公司

企业和事业单位的运转越来越依赖于计算机系统,如果一旦这个数据处理中心无法正常运转,就会造成业务停顿,导致不可挽回的损失。 随着信息时代的到来,关键数据的安全、持续可用问题直接关系到企业的生存和发展。用户对于保证数据的安全、持续可用的方案需求也变得多元化、复杂化,单一的解决方案已经逐渐不能满足用户的实际需求。 中金富捷凭借其丰富的研发经验,为您提供高可用性系列产品和优质的服务,推出了中金富捷高可用存储容灾解决方案,目的在于保证数据永不丢失和系统永不停顿,彻底解决传统高可用系统中存储设备单点故障的风险。 而采用中金富捷科技有限公司硬盘虚拟化产品SyMirror,可以最大限度的保护用户的数据信息,将用户的不同的存储设备进行同步复制,同时虚拟存储系统提供用户透明化的存取访问,任何一台存储设备的故障都会在SyMirror软件的检测下迅速切换到备用存储设备继续使用。而故障的存储设备修好后,重新加入SyMirror系统后,SyMirror会自动将增量数据同步到加入的存储设备。 具有国际领先技术的中金富捷SyMirror软件,具有以几个特点: 1、数据实时同步功能,确保两台存储设备的数据在任保时候保持一致。 2、透明化的数据存取功能,任何一台存储设备的损坏都不影响用户使用存储设备。 3、虚拟存储中的任何一个真实的存储设备都可以在任保时候轻松离线工作。 4、智能增量数据实别功能,确保加入虚拟系统中的存储设备进行快速增量同步。 5、存储设备之间的容灾切换时间小于1秒钟,对用户存取数据几乎无任何影响。 6、同PlusWell HA软件系统紧密配合,随动切换。实现真正意义的高可用冗余存储方 案。 北京中金富捷科技有限公司的高可用存储容灾方案结合了PlusWell HA高可用软件的高可用性及PlusWell SyMirror虚拟存储软件的透明化特点,结合二者之优势为客户提供了一套没有单点故障的高可用存储容灾方案。 一:方案特点 1、传统高可用解决方案(双机热备): 主要以一台共享的存储设备提供数据共享存储区域,两台或两台以上的服务器提供主备两种状态,当主机故障时,备机接管主机工作。实现业务的可持续性工作。其工作原理如下:

双机热备解决方案

双机热备解决方案 1.1 双机备份方案描述 现代IT技术认为,一个成功系统中数据及作业的重要性已远超过硬件设备本身,在一套完善的系统中对数据的安全及保障有着极高的要求。双机容错系统是由IBM公司提出的全套集群解决方案,结合IBM 服务器产品的安全可靠性和集群技术的优点,为用户提供一个完善的系统。 1.1.1 双机备份方案的原理 两台服务器通过磁盘阵列或纯软件模式,连接成为互为备份的双机系统,当主服务器停机后,备份服务器能继续工作,防止用户的工作被中断。 1.1.2 双机备份方案的适用范围 用户对系统的连续工作性和实时性要求较高,系统停机对系统的影响很大,造成很大的损失。 1.1.3 双机备份的方式及优缺点 磁盘阵列备份方式—— 两台服务器通过磁盘阵列连接起来,形成备份系统,此方法硬件投资 大,价格较贵,但系统易于安装,也相对稳定。 磁盘阵列备份模式示意图 1.2双机备份方案 由IBM系列产品组成硬盘备份模式 主机:采用IBM X255 主机网卡:采用IBM 10/100/1000MM网卡 磁盘阵列:采用EXP300 磁盘阵列, 配制RAID 5 具体实现方法参见后面章节附图和说明 IBM X255结合EXP300磁盘阵列的双机方案

系统简述: 整个系统由两台IBM高端服务器X255和EXP 300磁盘阵列构成双机备份模式,双台服务器互为备份,当一台服务器出现问题停机时,另一台服务器能实时接管中断的工作,保证业务系统的正常运行。EXP 300磁盘柜磁盘具有热插拔功能,具可以灵活组成RAID模式,当一块硬盘损坏,数据可以恢复,保证数据不丢失。 1 .3 IBM PC 服务器双机容错系统解决方案 由于采用了双机容错的集群结构,系统具有极高的可靠性。两台服务器可以作为一个整体对网络提供服务,且相互间互为监控。集群具有一定的负载平衡功能,可将一个任务的多个进程分摊到两台服务上运行,提高系统的整体性能。当一台服务器发生故障时,其上所运行的进程及服务可以自动地由另一台服务器接管,保证网络用户的工作不受影响。同时,如果系统采用RAID技术对数据进行保护,可确保重要数据不因系统故障而造成损失。 特点: 高可靠性 支持冗余磁盘阵列 冗余电源和风扇设计 所有部件均支持热插拔 主机可各自运行自己的应用,互为备份,共享磁盘数据 高性能单块IBM ServeRAID卡数据传输带宽可达 160MB/s 数据传输I/O可达3000次/s 主机与磁盘间的距离可达20米 高可用性 可扩展性强/性能价格比高/高容错性,系统安全高效 产品介绍(略,有兴趣的朋友可以去IBM网站看看详细的介绍)

服务器双机热备方案定稿版

服务器双机热备方案精 编W O R D版 IBM system office room 【A0816H-A0912AAAHH-GX8Q8-GNTHHJ8】

双机热备方案 双机热备针对的是服务器的临时故障所做的一种备份技术,通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。 1.集群技术 在了解双机热备之前,我们先了解什么是集群技术。 集群(Cluster)技术是指一组相互独立的计算机,利用高速通信网络组成一个计算机系统,每个群集节点(即集群中的每台计算机)都是运行其自己进程的一个独立服务器。这些进程可以彼此通信,对网络客户机来说就像是形成了一个单一系统,协同起来向用户提供应用程序、系统资源和数据,并以单一系统的模式加以管理。一个客户端(Client)与集群相互作用时,集群像是一个独立的服务器。计算机集群技术的出发点是为了提供更高的可用性、可管理性、可伸缩性的计算机系统。一个集群包含多台拥有共享数据存储空间的服务器,各服务器通过内部局域网相互通信。当一个节点发生故障时,它所运行的应用程序将由其他节点自动接管。 其中,只有两个节点的高可用集群又称为双机热备,即使用两台服务器互相备份。当一台服务器出现故障时,可由另一台服务器承担服务任务,从而在不需要人工干预的情况下,自动保证系统能持续对外提供服务。可见,双机热备是集群技术中最简单的一种。 2. 双机热备适用对象 一般邮件服务器是要长年累月工作的,且为了工作上需要,其邮件备份工作就绝对少不了。有些企业为了避免服务器故障产生数据丢失等现象,都会采用RAID技术和数据备份

技术。但是数据备份只能解决系统出现问题后的恢复;而RAID技术,又只能解决硬盘的问题。我们知道,无论是硬件还是软件问题,都会造成邮件服务的中断,而RAID及数据备份技术恰恰就不能解决避免服务中断的问题。 要恢复服务器,再轻微的问题或者强悍的技术支持,服务器都要中断一段时间,对于一些需要随时实时在线的用户而言,丢失邮件就等于丢失金钱,损失可大可小,这类用户是很难忍受服务中断的。因此,就需要通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。 3. 实现方案 双机热备有两种实现模式,一种是基于共享的存储设备的方式,另一种是没有共享的存储设备的方式,一般称为纯软件方式。 1)基于共享的存储设备的方式 基于存储共享的双机热备是双机热备的最标准方案。对于这种方式,采用两台服务器(邮件系统同时运行在两台服务器上),使用共享的存储设备磁盘阵列(邮件系统的数据都存

存储高可用解决方案

方 案 建 议 书 (XXX容灾方案建议)

目录 第1章XXXX容灾方案参考 (1) 1.1 系统现状 (1) 1.2 容灾需求分析 (1) 1.3 容灾参考方案 (2) 1.3.1 总体架构规划 (2) 1.3.2 V7000 外部存储虚拟化功能说明 (2) 1.3.3 V7000 VDM(虚拟磁盘镜像)功能说明 (3) 1.3.4 后期存储扩展建议 (4) 1.4 系统配置参考 (4) 第2章V7000存储设备介绍 (6) 2.1 IBM V7000存储系统概述 (6) 2.2 通过IBM S YSTEM S TORAGE E ASY T IER增强访问能力 (6) 2.3 通过精简调配来优化效率 (7) 2.4 动态迁移避免系统中断运行 (7) 2.5 通过复制服务来保护数据 (8) 2.6 管理工具与IBM S YSTEMS D IRECTOR相集成 (9) 2.7 高性能SSD支持 (10) 2.8 外部存储系统虚拟化 (10) 第3章存储高可用技术建议 (11) 3.1 存储高可用性的内容 (11) 3.2 存储高可用性方案的主要实现方式 (13) 3.2.1 方式一:磁盘设备间数据镜像( 如LVM Mirror ) (14) 3.2.2 方式二:磁盘设备间数据复制(如PPRC或ERM) (18) 3.2.3 方式三:采用SVC或V7000或V7000实现逻辑卷镜像 (20) 3.2.4 三种HA方式的比较 (21)

第1章XXXX容灾方案参考 1.1系统现状 XXXX现有IT系统的现状大致如下图所示。采用IBM P550服务器作为数据库服务器,采用DS3400存储设备作为主存储系统。 1.2容灾需求分析 当前,XXXX计划在同一园区内建设容灾系统,在容灾中心和主生产中心之间采用2km长的裸光纤进行直连。并且,希望对现有的存储设备进行充分利旧。 IBM将针对当前所了解的情况,做出初步的方案,供XXXX容灾建设参考。 由于DS3400设备没有自身的基于磁盘的远程复制功能,因此无法采用基于存储底层的磁盘复制技术。此外,由于DS3400的性能有限,且缓存较低,因此采用基于AIX操作系统的LVM镜像方式性能会有影响。(各种高可用技术,详见第3章的说明) 而目前IBM最新的虚拟化存储设备V7000,即可以支持外部存储的接入,也可以支持内部存储和外部存储之间的镜像,因此可以通过V7000存储设备来实现存储的高可用,并达到同园区内容灾的目的。

双机热备搭建系统解决方案

UPS电源安装实施方案 1.双机集群介绍 1.1.双机集群的原理说明 双机容错是计算机应用系统稳定、可靠、有效、持续运行的重要保证。它通过系统冗余的方法解决计算机应用系统的可靠性问题,并具有安装维护简单、稳定可靠、监测直观等优点。当一台主机出现故障的时候,可及时启动另一台主机接替原主机任务,保证了用户数据的可靠性和系统的持续运行。在高可用性方案中,操作系统和应用程序是安装在两台服务器的本地系统盘上的,而整个网络系统的数据是通过磁盘阵列集中管理和数据备份的。数据的集中管理是通过双机热备份系统,将所有站点的数据直接从中央存储设备来读取和存储,并由专业人员进行管理,极大地保护了数据的安全性和保密性。用户的数据存放在外接共享磁盘阵列中,在一台服务器出现故障时,备机主动替代主机工作,保证网络服务不间断。双机热备份系统采用“心跳”方法保证主系统与备用系统的联系。所谓“心跳”,指的是主从系统之间相互按照一定的时间间隔发送通讯信号,表明各自系统当前的运行状态。一旦“心跳”信号表明主机系统发生故障,或者是备用系统无法收到主机系统的“心跳”信号,则系统的高可用性管理软件(双机软件)认为主机系统发生故障,立即令主机停止工作,并将系统资源转移到备用系统上,备用系统将替代主机发挥作用,以保证网络服务运行不间断。 双机热备模式即目前通常所说的active/standby 方式,active服务器处于工作状态;而standby服务器处于监控准备状态。当active服务器出现故障的时候,通过软件诊测或手工方式将standby机器激活,保证应用在短时间内完全恢复正常使用。这是目前采用较多的一种模式。

高可用系统部署方案

高可用性系统部署方案 2010年2月5日 1.1 概述 1.1.1 前言 在金融工程系统应用中,对服务器的安全性、可靠性要求较高,在服务器故障情况下,要求尽可能短的时间内恢复运行,并且能对故障发生时的数据进行恢复和处理,而能否实现这一功能是一个系统是否达到高可用性的主要指标。

高可用性可体现于应用系统和数据库存储两部分,应用系统部分重点是主备机达到故障自动切换,而数据存储部分注重数据的完整性、安全性和故障转移。 1.1.2 目前情况 股指套利、算法交易、交易网关等系统在使用上需要作整个架构部署的高可用性考虑,但目前只是部分或没有作整个系统的高可用性方案及实现。 1.1.3 参考文档 附件:SQL2005数据镜像方案测试报告_20100204.doc 1.2 高可用性需求 即要实现高可用性,又要控制成本投入,实施部署也要可操作性强是这次方案的主要目标,基于此目标,本方案对成本很高的共享磁盘阵列的故障转移群集和第三方商业故障系统不作为实现技术方案。 本方案解决的高可用性需求如下: 1、应用主服务器故障发生时,连接能够短时间内自动连接到备机继续工作。 2、数据库主服务器发生时,备机上要有完整的数据,并且连接到主数据库的连 接会话能很快的重新连接到备机上继续工作 3、应用系统和数据库的服务器均能达到自动故障切换转移,以达到快速故障恢 复的目的。 4、服务器数量尽可能少,成本投入不能太高。 1.3 解决方案 出于安全和可靠性考虑,建议数据库和应用系统部署在不同的服务器上,以减少性能上的彼此影响。以算法交易服务应用为例,在母单下得较多的时候会出现系统CPU和内存上的较大消耗,如果再加上数据库的占用资源,很容易出现系统负载过重,故在方案中将应用系统与数据库分布在不同服务器,便于管理及提高整体性能。

IBM3650双机热备方案示例

IBM3650双机热备方案示例 IBM3650双机热备方案示例 IBM X3650服务器+DS3200 SAS 磁盘柜双机热备方案双机热备方案所需软硬件清单如下: 1、IBM X3650 服务器2台(具体配置根据需求选配) 2、IBM DS3200 磁盘柜一台(单控制器,单SAS 接口) 3、SAS HBA 卡2块(每台服务器各加一块) 4、双机模块(子卡)一块 5、SAS 连接线2条 6、双机热备软件(ROSE HA OR LIFEKEEPER )一套 DS3200/DS3400安装心得及技巧 这应该是网络上第一篇关于IBM System Storage DS3200和DS3400产品安装的非官方性文章,希望可以对大家的工作中带来帮助。 作为DS400产品的更新型号,DS3200和DS3400提供了更强的性能及灵活性,相信会成为今后一两年内的IBM低端存储产品的首选。 DS3200和DS3400均出自于LSI公司的Engenio系统(DS4000系列的大部分产品也是由Engenio为IBM协议设计及生产,去年Engenio被LSI收购)。所以设计思想和结构与DS400(Adapter 公司设计)会有较大的不同,管理方式也会与DS4000系列较为接近。

DS3000系列均需要在自身上安装不少于4个硬盘。建议先装上硬盘再上电开机。 DS3000系列提供与DS4000系列类似的带内和带外两种管理方法,带外管理的默认IP地址也与DS4000一样,控制器A为192.168.128.,控制器B为192.168.128.102。 本人比较喜欢采用带外管理,将本本网卡设至192.168.128网段后,可以ping通即可。 管理口长时间未起用时需要若干分钟的时候等待管理接口工作。 在本本上安装DS3000 Storage Manager(随机附带),注意该SM与DS4000上的Storage Manager为不同程序,不可替换使用。甚至不能在一台机器上共存。 打开Storage Manager后,首先需要发现设备,可以ping通控制器后,发现工作会非常容易。 双击发现的设备就可以进入该设备的管理界面,学名叫Subsystem Management。 Subsystem Management分为5个大项,Summary,Configure,Modify,Tools,Support。 常规的操作这里不再详述,如果你装过DS4000产品,应该对配置方法不会感到陌生。当然Storage Manager里只提供一些常规功能,在遇到问题的时候,比如需要重置手动清零时在该程序里无法完成的,所以与DS4000产品一样,提供了Script的方式,运行Script有两种方法。方法一:在DS3000 Storage

技术方案-应用高可用解决方案(两地三中心)

英方软件数据库系统高可用解决方案 英方软件(上海)有限公司

目录 1. 概述 (1) 2. 需求分析 (2) 3.1主机配置 (3) 3.2方案拓扑图: (3) 3.3 I2高可用方案功能介绍 (4) 3.4管理控制台 (7) 5. I2的主要优势 (10) 6. 典型案例 (12) 7.公司简介 (13)

1. 概述 现代大型企业大多拥有为数众多的服务器,提供Internet与Intranet使用者各种不同的服务。如数据库系统、影像系统、录音系统、Email系统等。保持业务的持续性是当今企业用户进行数据存储需要考虑的一个重要方面。系统故障的出现,可能导致生产停顿,客户满意度降低,甚至失去客户,企业的竞争力也大打折扣。因此,保持业务的持续性是用户在选择计算机系统的重要指标。究其根本,保护业务持续性的重要手段就是提高计算机系统的高可靠性同时将数据的损失降至最低限度。 关键数据和数据库的备份操作已经成为日常运行处理的一个组成部分,以确保出现问题时及时恢复重要数据。传统的解决方案,类似于磁带机备份存在较大的缺点. 通常数据采用磁带离线备份,当数据量较大或突发灾难发生时,备份磁带无法真正及时快速恢复数据及业务。 提供有效的数据保护和高可用性服务,又在合理预算范围之内,并且能够基于你现有环境当中,获得实时数据保护,并无距离限制,为确保你重要数据的保护----包含数据库和邮件系统。I2为您提供了完美的解决方案。 I2 采用先进的异步实时数据复制技术(Asychronous Real-Time Data Replication),立即将所有服务器上对于磁盘系统的变更透过网络传输至备援服务器,而非整个档案或磁盘的镜设(Mirror),因此对于服务器的效能与网络带宽的影响都能降至最低,并能将成本降至最低,做到真正的实时数据保护. 业务数据是用户最宝贵的资产之一,数据的损失就是企业资产利润的损失,所以保护业务数据是企业计算系统的主要功能之一。实施I2的备份方案可以将用户数据的损失降至最低甚至为零。

双机双柜高可用解决方案

双机双柜高可用解决方案 关键字:双机双柜 传统的基于共享存储的双机热备方案解决了用户业务连续性的问题,当主服务器故障时,备机能及时接管保证业务7*24小时连续运行。但共享的存储设备却成为了系统的单一故障点,当盘阵不可用时,整个业务系统也必然停顿。 为了解决共享盘阵单点故障可能导致的系统不可用问题,Rose提出了相应的解决方案。仅需在现有架构基础上增加一台冗余的磁盘阵列,即构成双机双盘柜的解决方案,既消除了存储的单点故障,又使得客户拥有冗余的数据副本,大大提升了数据和业务的可靠性。 双机双柜高可用解决方案一:镜像方式 如上图所示,主、备服务器上均挂载一个磁盘阵列,部署Rose的双机双柜解决方案,通过Rose双机镜像软件利用TCP/IP网络实现主备机存储设备上的数据实时同步,当主机遭遇存储设备故障时,由于备机上有一份完全一致的数据,则可以利用备机上的数据将应用正常启动并恢复生产。 解决方案优点: ●数据存储在两台磁盘阵列上,数据冗余备份,避免磁盘单点故障 ●基于镜像技术的实施复制,保证数据的一致性

●Rose的高可用技术,保证业务连续性 ●提升高可用容灾距离 双机双柜高可用解决方案二:LAN-FREE方式 该方案中服务器、交换机、存储设备均有冗余设计,磁盘阵列A 和磁盘阵列B 分别接入不同的光纤存储交换机,服务器A 和服务器B 分别接入不同的光纤存储交换机;这种部署结构,实现了硬件设备和存储通道的完全冗余。 利用盘阵的多路径管理软件将冗余路径映射的磁盘还原为实际磁盘,通过操作系统的磁盘管理工具将不同盘阵映射的磁盘创建为RAID 1镜像卷。分别在服务器上部署需保护的应用,并将应用数据存放至不同盘阵构成的镜像卷中,实现对业务系统的高可用保护;通过系统的软RAID技术及光纤存储网络实现两台磁盘阵列中的数据同步。 冗余的存储路径设计,有效避免了存储HBA卡、光纤存储交换机、磁盘阵列、存储通道的单点故障,完全冗余的双机双柜结构保证了业务系统的连续运营和业务系统的数据安全,方案稳定性及可靠性得到保障。 解决方案优点: ●完全冗余结构,有效避免硬件设备和软件的单点故障。彻底解决了传统双机单柜模式下,磁盘阵列单点故障的情况。 ●数据的存储架构为FC-SAN,通过存储多路径管理软件实现存储通道的负载冗余,提升了业务系统数据存储的可靠性、高效性、安全性,并且基于FC-SAN 的架构具有高可扩展性。 ●高性价比的整体解决方案,既帮助用户实现了高容错,高安全,高性能的解

双机热备的数据备份和灾难备份方案

双机热备的数据备份和灾难备份方案 一、方案背景 1. 用户目前数据环境及需求 根据提供的信息,目前用户的系统环境如下描述:操作系统:Windows 操作系统,关键数据:VSS 数据库现在用户要备份的服务器为2台数据库服务器做双机热备集群,整个系统对于备份的要求:备份系统稳定可靠,保证随时能够备份/还原关键数据;对服务器有灾备的考虑,操作系统崩溃时能通过灾难备份快速恢复操作系统。同时考虑远期建设目标平滑过渡,避免重复投资。 2. 用户目前状态和存在的问题 目前用户双机服务器拓扑图如下,这样的方式存在以下问题: a) 由于主机与备机及磁盘阵列中的数据都没有备份,一旦发生磁盘阵列数据丢失、主机与备机数据丢失事故时,将会造成重大损失。 b) 当服务器操作系统崩溃时,无法快速恢复。 二、设计方案 1. 设计原则 根据上述问题建议的备份方案应该遵循以下原则:备份系统应该支持Open File 热备份功能磁盘阵列连接在专用的备份服务器上、对双机集群中的2台机器都能进行数据备份、备份软件支持定时计划备份、备份软软件支持服务器灾难备份、备份软件提供网络集中备份功能,能集中备份网络上其余SQL Server、ORACLE或文件数据,提供良好的扩展性。 2. 方案的设计 依据上述设计原则,建议采用爱数备份软件专业备份软件安装在一台备份服务器上,通过网络对双机系统进行数据备份和操作系统灾难备份。Backup Exec 作为专业的备份软件,具有以下优点: c) 专业的企业网络集中备份解决方案,一台备份服务器可以备份网络上多台服务器数据(文件服务器、VSS服务器、数据库服务器、邮件服务器等) d) 备份软件支持Open file 热备份功能,能对正在使用的数据进行备份。 e) 能根据需要制定灵活多变的备份计划任务 f) 支持服务器操作系统崩溃灾难备份/恢复

核心系统高可用性设计

关于系统稳定性策略的探讨 1.前言 系统作为业务系统的核心,其运行稳定性和高可用性至关重要。因此,需要通过高可用性设计来尽量减少系统的计划内和计划外停机,并在系统出现故障时及时响应、快速恢复,以保障关键数据和业务系统的运行稳定性和可持续访问性。其中: 1.计划内停机是指管理员有组织、有计划安排的停机,比如升级硬件微码、升 级软件版本、调整数据库库表、更换硬件设备、测试系统新功能等时,可能需要的停止系统运行。 2.计划外停机是指非人为安排的、意外的停机,比如当硬件出现重大故障、应 用程序停止运行、机房环境遭到灾难性的破坏时所引起的业务系统停止运行。 目前,对于计划内和计划外停机,可通过消除系统中的单点失效来尽量减少停机时间。同时,通过采用可在线维护(固件升级、在线扩充、故障部件更换)的设备,并通过负载均衡机制实现应用系统的在线升级、维护,将有效消除计划内停机对业务系统的影响。此外,由于系统中采用了全面的负载均衡设计,并针对系统失效提供了可靠的数据备份恢复和多点容灾保护,因而能够有效减少系统计划外停机的恢复时间。 在造成系统宕机的原因方面,有统计中表明并非都是硬件问题。其中,硬件问题只占40%,软件问题占30%,人为因素占20%,环境因素占10%。因此,高可用性设计应尽可能地考虑到上述所有因素。对于系统而言,其整体的可用性将取决于内部的应用系统、主机、数据库等多种因素;同时,训练有素的系统维护人员和良好的服务保障也是确保系统稳定运行和故障快速恢复的关键。 2.应用系统 系统在应用软件架构设计中应从渠道层、渠道管理层、业务处理层等不同

层面通过多种措施和策略的综合设计来提高应用系统的高可用性和稳定性。 在渠道管理层和业务处理层的设计中,要考虑设置应用负载均衡、应用软件失效备援、vip服务通道、流量控制、故障隔离等机制。 1.应用负载均衡 应用软件负载均衡通过多个层次上不同的负载均衡策略一起实现整体的负载均衡,应用负载均衡的设计思路是将大量的并发访问或数据流量分担到多台节点设备上分别处理和将单个重负载的运算分担到多台节点设备上做并行处理来达到负载均衡的效果,从而提高服务响应速度,提高服务器及其他资源的利用效率,避免服务请求集中于单一节点导致拥塞。 2.应用软件失效备援 应用软件构建在面向服务的架构、设计思想上,应用服务具有较高的可灵活部署性。通过这种灵活性,结合系统基础设施的规划、部署可以实现应用软件的失效备援。系统可以考虑实现基于应用服务和基于应用服务管理框架的多种应用软件失效备援机制。 基于应用服务的失效备援是在应用服务管理框架中可以实现应用服务的冗余部署,利用硬件负载均衡设备或应用软件负载均衡可以在需要时将服务请求切换到相应的冗余服务。 基于应用服务管理框架的失效备是将应用服务框架在系统中冗余部署,利用硬件负载均衡设备或应用软件负载均衡可以在需要时将服务请求切换到相应的冗余的应用服务管理框架。 3.vip服务通道 在系统中,从系统运行稳定性、持续性及处理性能的角度,配合物理设备、系统支撑软件(数据库系统、操作系统)的相关措施,应用软件可通过构建VIP服务通道的方式降低应用服务运行期间的相互影响。服务通道可以基于不同业务产品或不同应用服务管理框架的不同粒度来设置,从而满足部分应用处理资源只响应特定的服务请求或不同的服务监听响应不同的通道传递过来的服务申请的功能。 4.流量控制 在系统中,从系统运行稳定性、持续性角度,配合物理设备、系统支撑软

RoseMirrorHA镜像服务器双机热备解决方案及具体配置

RoseMirrorHA镜像服务器双机热备解决方

案及具体配置 . 一、双机热备拓扑图以及工作原理 专业资料Word .

双机热备工作示意图 二、双机热备方案介绍操作系统和应用程序是安装在两台服务器的本地系统盘在高可用性方案中,数据的集磁盘阵列集中管理和数据备份的。上的,而整个网络系统的数据是通过将所有站点的数据直接从中央存储设备来读取和中管理是通过双机热备份系统,用户的数极大地保护了数据的安全性和保密性。存储,并由专业人员进行管理,备机主动替代主机工在一台服务器出现故障时,据存放在外接共享磁盘阵列中,作,保证网络服务不间断。 心双机热备份系统采用“心跳”方法保证主系统与备用系统的联系。所谓“,指的是主从系统之间相互按照一定的时间间隔发送通讯信号,表明各自系”跳统当前的运行状态。一旦“心跳”信号表明主机系统发生故障,或者是备用系统双机软件无法收到主机系统的“心跳”信号,则系统的高可用性管理软件(专业资料 Word .

RoseHA)认为主机系统发生故障,立即令主机停止工作,并将系统资源转移到备用系统上,备用系统将替代主机发挥作用,以保证网络服务运行不间断。 双机备份方案中,根据两台服务器的工作方式可以有三种不同的工作模式,即双机热备模式、双机互备模式和双机双工模式。下面分别予以简单介绍: 双机热备模式即目前通常所说的active/standby 方式,active服务器?处于工作状态;而standby服务器处于监控准备状态。当active服务器出现故障的时候,通过软件诊测或手工方式将standby机器激活,保证应用在短时间内完全恢复正常使用。这是目前最理想的一种模式。 双机互备模式,是两个相对独立的应用在两台机器同时运行,但彼此均?设为备机,当某一台服务器出现故障时,另一台服务器可以在短时间内将故障服务器的应用接管过来,从而保证了应用的持续性,但对服务器的性能要求比较高。服务器配置相对要好。 双机双工模式: 是目前Cluster(集群)的一种形式,两台服务器均为?活动状态,同时运行相同的应用,保证整体的性能,也实现了负载均衡和互为备份。WEB服务器或FTP服务器等用此种方式比较多。 双机热备有两种实现模式,一种是基于共享的存储设备的方式,另一种是没有共享的存储设备的方式,一般称为纯软件方式,低成本模式。 基于存储共享的双机热备是双机热备的最标准方案。这种方式采用两台服务器,使用共享的存储设备(磁盘阵列柜或存储区域网SAN)。两台服务器可以采用热备(主从)、互备、双工(并行)等不同的方式。在工作过程中,两台服专业资料 Word .

高可用解决方案

高可用解决方案 数据中心高可用网络系统设计 数据中心的故障类型众多,但故障所导致的结果却大同小异。即数据中心中的设备、链路或server发生故障,无法对外提供正常服务。缓解这些问题最简单的方式就是冗余设计,可以通过对设备、链路、Server提供备份,从而将故障对用户业务的影响降低到最小。 但是,一味的增加冗余设计是否就可以达到缓解故障影响的目的?有人可能会将网络可用性与冗余性等同起来。事实上,冗余性只是整个可用性架构中的一个方面。一味的强调冗余性有可能会降低可用性,减小冗余所带来的优点,因为冗余性在带来好处的同时也会带来一些如下缺点: w 网络复杂度增加 w 网络支撑负担加重 w 配置和管理难度增加 因此,数据中心的高可用设计是一个综合的概念。在选用高可靠设备组件、提高网络的冗余性的同时,还需要加强网络构架及协议部署的优化,从而实现真正的高可用。设计一个高可用的数据中心网络,可参考类似OSI七层模型,在各个层面保证高可用,最终实现数据中心基础网络系统的高可用,如图1所示。 网络架构高可用设计 企业在进行数据中心架构规划设计时,一般需要按照模块化、层次化原则进行,避免在后续规模越来越大的情况再进行大规模的整改,造成时间与投资浪费。 模块化设计

模块化设计是指在对一定范围内的不同功能或相同功能不同性能、不同规格的应用进行功能分析的基础上,划分并设计出一系列功能模块,模块之间松耦合,力求在满足业务应用要求的基础上使网络稳定可靠、易于扩展、结构简单、易于维护。 层次化设计 包括网络架构分层和应用系统分层两个方面。在当前网络及安全设备虚拟化不断完善的情况下,应用系统分层可完全通过设备配置来实现逻辑分层,不影响网络的物理拓扑。对于网络架构层次化设计,选择三层架构还是二层架构是不少企业进行数据中心网络建设时面临的难题。 从可靠性的角度来看,三层架构和二层架构均可以实现数据中心网络的高可用。近年来随着云计算的逐渐兴起,二层扁平化网络架构更适合云计算网络模型,可以满足大规模服务器虚拟化集群、虚拟机灵活迁移的部署。二层架构和三层架构两者之间没有绝对的优劣之分,企业用户可根据自身的业务特点进行选择。也可以先二层,后续针对某些特定的功能分区采用三层组网。 设备层高可用设计 设备可靠是系统可靠的最基本保证,数据中心核心交换区设备的可靠稳定尤为重要。尽管可以通过架构、策略、配置等的调整和优化等多种手段降低核心设备的故障几率以及影响范围,但若要解决最根本的设备本身的软硬件故障,则必须选用数据中心级的网络设备。 关于数据中心级设备,业界还没有标准的定义,但从目前主流网络设备供应商提供的数据中心解决方案产品可以看出,数据中心级交换机应具备以下特征: 1) 控制平面与转发平面物理分离 控制平面与转发平面硬件物理分离,引擎切换时不影响转发,可实现零丢包。同时控制平面与转发平面均提供独立的冗余架构,实现控制与转发两级冗余,保证更高的可靠性。 2)关键部件更强的冗余能力 除了引擎和交换网板的冗余外,此类设备的电源一般均可以配置多块,实现N+M的冗余,保证电源的可靠性更高;另外风扇的冗余也由原来的风扇级冗余,提高到了风扇框冗余,每个独立的风扇框内多个风扇冗余。 3)虚拟化能力 数据中心的复杂度越来越高,需要管理的设备也越来越多,设备的虚拟化可将同一层面(核心、汇聚、接入)的多台设备虚拟化为一台,进行设备的横向整合,简化设备的配置和管理。 4)突发大流量的缓冲能力

高可用性报告

高可用报告 一、 高可用分析 1、三个概念 失效(fault):指设备或程序自身固有缺陷导致的瞬间或永久性的功能失常。 错误(error):由失效导致的系统内部不正确行为。错误可以被发现并进行纠正。 故障(failure):指由于出现错误导致了系统产生了不正确的结果。 2、平均故障发生时间MTTF ( Mean Time To Failure ) MTTF 是一个统计上可测量的参数 MTTF 寿命 MTTF= 1 / 稳态运行期间的故障发生率 N 台机器T 时间内故障数: E = (N ×T)/ MTTF 3 可靠性: 系统连续提供服务的能力,MTTF: Mean Time To Failure 可维护性:修复故障使系统恢复正常的能力,MTTR: Mean Time To Repair 4、可用性(Availability) 可用性= MTTF / (MTTF + MTTR) 例: MTTF=5000小时, MTTR=1天, 则可用性为: 5000/(5000+24) = 99.52% 5、提高可用性的途径 1) 提高 MTTF 2) 降低 MTTR 二、硬件高可用 (一) Cluster 中硬件HA 的目标 1、 问题的起源:单点故障问题及其应对策略

单点故障:某些硬件或软件部件,它们的故障会导致整个系统的崩溃。[6] 机群系统可能出现的单点故障有: ●处理器或节点 ●存储程序或数据的磁盘 ●适配器、控制器和连接节点到磁盘的电缆 ●用户访问机群节点的网络。 ●应用程序 应对策略:通过系统地消除那些单点故障来尽可能使更多的故障成为部分故障。[6]解决机群中的单点故障问题:解决大多数的单点故障问题并不需要使用任何分层软件产品。计算从任何特殊错误中恢复所需人工干涉的总时间和精力。然后再考虑系统能否承受停机造成的损失,以及能否提供全天操作中必须的人工干预。对于机群设计者而言,这将有助于决定是使用人工干预来管理还是需要采取其它措施来满足高可用性的要求。 ?节点故障 在机群中,当一个节点提供的服务是关键性的话,那么当该节点失效时,机群中必须有另外的节点来代替它的资源,向终端拥护提供相同的服务。 包括以下步骤: 1、在备用节点的网络适配器配置失效节点的地址,或者提示用户(或改变客户端应用程序) 使用一个替换的地址。 2、在故障和备用节点之间引入和改变所有组的卷,并且装上所有需要的文件系统。 3、修复存储在故障节点内部磁盘上的所有应用程序和数据。 4、执行任何鉴定性的应用程序。 假定后备节点在关键服务中还没有被网络访问。这样,每个节点需要额外的网络适配器,这个节点将被备份。如果用户通过串行连接访问失效节点,每个终端应该物理上重连接到后备节点的端口上。如果外部磁盘没有连接到失效节点和后备节点之间的通用总线上,则需要手工将他们从一个转换到另一个。所有关键数据被保存在外部磁盘上。如果最后的后备节点变为不可用,所有关键数据则被保存至节点的内部磁盘。 ?磁盘和I/O总线故障 为了防止包括磁盘的外部I/O通道中的任何部分出错,应该在两路I/O总线上将磁盘镜象或者使用从节点到存储子系统有双重路径的磁盘阵列系统。 ?网络适配器故障 为了防止网络适配器故障,每个提供关键服务的节点需要配置备用网络适配器。这个适配器连接到与用户正在访问的主适配器相同的网络主干上。如果网络适配器失效,可以将备用适配器的地址改为失效适配器的地址。另外一种方法是始终有一个热备份的网络适配器可以随时替代出错适配器。这种方法从故障中恢复的时间更短,因为系统安装备用适配器无需停机。 ?网络故障 如果用户正在和一个节点通信时网络主干停止工作,解决方案之一是人工地将所有机群节点和客户端机器切换到另外一个主干上。即便有足够的时间和精力去这样做,还得保证没有松散的连接或网络设备(路由器、集线器或网桥)故障引起主干失效。另外一个解决方案是连接一个终端的子集到备用节点的串口上,这样还可以提供最小级别的服务。在这种情况下应用程序必须被设计成允许用户既可以通过网络连接到终端也可以通过串口连接到终端。 ?应用程序故障 根据应用程序的设计,为监控应用程序使用的后台程序,并及时对状态改变作出反应,应该使用AIX子系统资源控制器。 2、人工干预的缺点 根据上述的讨论,依据故障的不同类型。包括检测故障所花时间,很明显从任何机群故障中人工恢复的时间为30分钟到几个小时。这对许多应用在重要场合的机群来说已经是不可容忍的了。

相关文档
最新文档