高可用集群模块

合集下载

高可用集群 三节点原理

高可用集群 三节点原理

高可用集群三节点原理高可用集群是一种分布式计算系统,它通过将多个节点(一般为三个节点)连接在一起,以实现数据的冗余备份和资源的共享,从而提高系统的可用性和容错能力。

下面将介绍三节点高可用集群的工作原理。

在三节点高可用集群中,每个节点都是一台独立的服务器,具备相同的硬件和软件配置。

这三个节点通过高速网络互连,并通过软件共享存储来实现数据的同步和共享。

集群中的节点可以分为两个角色:主节点(Primary)和备节点(Secondary)。

在正常运行状态下,主节点负责处理客户端请求,并将数据同步至备节点。

同时,备节点以热备份的形式,实时复制主节点的数据和状态。

这样,在主节点发生故障或不可用时,备节点可以立即接管并继续提供服务,实现故障的无缝切换。

为了确保高可用性和数据一致性,集群采用了心跳机制和共享存储的方式。

心跳机制用于监控节点的状态,每个节点定期发送心跳信号以及当前节点的状态信息给其余节点。

如果主节点的心跳信号长时间未接收到,备节点可以判断主节点已经失效,并将自己切换为主节点运行。

共享存储用于存储集群的数据,主节点和备节点通过共享存储来实现数据的同步,确保数据在节点之间的一致性和可用性。

除了故障切换外,三节点高可用集群还可以进行软件和硬件的维护操作,如升级、扩容、修复等,而不会中断用户的访问。

这是因为在进行维护操作时,可以通过将一个节点切换到维护模式,并将其任务和数据迁移到其他节点上,再进行相应的操作。

维护完成后,将节点切换回正常模式,实现集群的无缝恢复。

综上所述,三节点高可用集群通过节点之间的数据同步和故障切换,提高了系统的可用性和容错能力。

它可以保证在主节点故障或维护时,集群可以继续正常提供服务,从而保证系统的稳定性和可靠性。

WEB服务器设计

WEB服务器设计

WEB服务器设计随着互联网的发展和普及,WEB服务器在我们的生活中扮演着越来越重要的角色。

WEB服务器作为一个关键的网络设备,起到了连接用户和互联网资源的桥梁作用。

针对这一需求,本文将探讨WEB服务器的设计原则以及一些实用的技术。

一、WEB服务器的功能与特点WEB服务器主要用于处理和响应用户的HTTP请求,并返回相应的网页或其他资源。

具体来说,WEB服务器的功能包括但不限于以下几个方面:1. 静态资源的传输和存储WEB服务器负责接收用户的HTTP请求,根据请求的路径定位到相应的静态资源,并将资源传输给用户。

静态资源包括HTML页面、CSS样式表、JavaScript脚本以及其他常见的文件格式。

2. 动态内容的处理WEB服务器还要能够处理包含动态内容的请求。

这些请求会经过服务器的处理和计算,生成不同于静态资源的响应结果,如动态生成的网页、数据操作等。

3. 连接管理WEB服务器需要管理大量的用户连接,并保持这些连接的稳定性和高效性。

它需要实现连接的建立和维护,解决高并发和流量压力带来的问题。

WEB服务器的设计要符合以下特点:1. 高可用性WEB服务器需要设计成高可用的,即能提供稳定的服务,并快速响应用户的请求。

为此,可采用集群、冗余备份等技术手段,确保在服务器宕机或故障时能够无缝切换至备用服务器。

2. 高性能WEB服务器需要提供高性能的服务,以应对大量并发的请求。

通过使用并行处理、负载均衡等技术,可以提升服务器的性能,并减少响应时间。

3. 安全性WEB服务器需要保障用户数据的安全性和服务器的防护。

采用有效的安全策略,如HTTPS协议、防火墙、安全审计等措施,可以有效防范网络攻击和数据泄露。

二、WEB服务器的设计原则在设计WEB服务器时,需要遵循一些基本的原则,以确保服务器的稳定性和可扩展性。

1. 模块化设计将WEB服务器拆分为多个独立的模块,每个模块负责特定的功能。

这样可以提高代码的可维护性和可复用性,并使系统更加灵活和可扩展。

中标麒麟高可用集群软件(龙芯版)V7.0 产品白皮书说明书

中标麒麟高可用集群软件(龙芯版)V7.0 产品白皮书说明书
中标麒麟高可用集群软件(龙芯版)V7.0 产品白皮书
中标软件有限公司
目录
目录
目录 ...................................................................................................................................................i 前言 ..................................................................................................................................................v 内容指南 ........................................................................................................................................vii 中标麒麟高可用集群产品介绍....................................................................................................... 9 1 概述 ............................................................................................................................................ 11
第 i 页 / 共 54 页

软件开发知识:利用集群技术构建高可用性的系统

软件开发知识:利用集群技术构建高可用性的系统

软件开发知识:利用集群技术构建高可用性的系统随着互联网技术的不断发展,越来越多的企业和组织都在构建自己的高可用性系统,以保证业务的稳定性和数据的安全性。

其中的关键技术之一就是集群技术,通过多台服务器的联合工作,实现高可用性的系统构建。

本文将从以下四个方面深入阐述集群技术构建高可用性系统的要点和步骤。

首先,介绍集群技术的基本概念和原理。

其次,探讨如何利用集群实现系统的负载均衡和故障转移,同时介绍相关的软件和工具。

第三,详细解释如何选用适合的硬件设备和网络结构来搭建集群系统。

最后,对常见的集群系统故障进行分析,提出应对方法。

一、集群技术概述集群技术是一种将多台计算机联合起来构成一个高性能、高可用性、高扩展性的计算机系统的技术。

集群系统通常由多个相互独立的服务器节点组成,节点之间通过特定的网络通信协议进行数据的交换和共享。

在集群系统中,任何一个计算机节点都可以以工作节点的身份进入到整个集群体系中,从而实现任务的分配和执行。

而整个集群系统也可以通过编程、配置等方式实现负载均衡和故障转移,从而提高系统的可用性和稳定性。

二、集群技术实现高可用性系统的原理和步骤2.1负载均衡负载均衡是集群技术中最基本的概念之一。

在一个系统或服务中,用户的请求往往是随机分布的,不同请求的负载也会有所差异。

而通过负载均衡技术,可以将不同请求分配到不同计算机节点中进行处理,从而实现系统的负载均衡。

负载均衡可以分为硬件负载均衡和软件负载均衡两种类型。

硬件负载均衡一般采用专用网络交换机或路由器来实现,比如F5、NetScaler等;而软件负载均衡通常采用虚拟网络设备或软件来实现,比如Nginx、HAProxy等。

2.2故障转移故障转移指在集群系统中,如果某个节点出现了故障,如何及时将请求转发到其他节点,以保证系统的可用性和稳定性。

故障转移也可以分为硬件故障转移和软件故障转移两种类型。

硬件故障转移一般采用专用的硬件设备或热插拔设备来实现,比如磁盘阵列设备或高可用性存储系统。

高可用,多路冗余GFS2集群文件系统搭建详解

高可用,多路冗余GFS2集群文件系统搭建详解

⾼可⽤,多路冗余GFS2集群⽂件系统搭建详解⾼可⽤,多路冗余GFS2集群⽂件系统搭建详解2014.06标签:实验拓扑图:实验原理:实验⽬的:通过RHCS集群套件搭建GFS2集群⽂件系统,保证不同节点能够同时对GFS2集群⽂件系统进⾏读取和写⼊,其次通过multipath 实现node和FC,FC和Share Storage之间的多路冗余,最后实现存储的mirror复制达到⾼可⽤。

GFS2:全局⽂件系统第⼆版,GFS2是应⽤最⼴泛的集群⽂件系统。

它是由红帽公司开发出来的,允许所有集群节点并⾏访问。

元数据通常会保存在共享存储设备或复制存储设备的⼀个分区⾥或逻辑卷中。

实验环境:1 2 3 4 5 6 7 8[root@storage1 ~]# uname -r2.6.32-279.el6.x86_64[root@storage1 ~]# cat /etc/redhat-releaseRed Hat Enterprise Linux Server release 6.3 (Santiago) [root@storage1 ~]# /etc/rc.d/init.d/iptables status iptables: Firewall is not running.[root@storage1 ~]# getenforceDisabled实验步骤:1、前期准备⼯作0)、设置⼀台管理端()配置ssh 私钥、公钥,将公钥传递到所有节点上12 3 4 5 6 7 8 9 10 11 12 13 14[root@manager ~]# ssh-keygen \\⽣成公钥和私钥Generating public/private rsa key pair.Enter file in which to save the key (/root/.ssh/id_rsa):Enter passphrase (empty for no passphrase):……[root@manager ~]# for i in {1..6}; do ssh-copy-id -i 192.168.100.17$i; done \\将公钥传输到各节点/root/.ssh/⽬录下root@192.168.100.171's password:Now try logging into the machine, with "ssh '192.168.100.171'", and check in:.ssh/authorized_keysto make sure we haven't added extra keys that you weren't expecting..……[root@manager ~]# ssh node1 \\测试登录Last login: Sat Jun 8 17:58:51 2013 from 192.168.100.31[root@node1 ~]#1)、配置双⽹卡IP,所有节点参考拓扑图配置双⽹卡,并配置相应IP即可1 2 3 4 5[root@storage1 ~]# ifconfig eth0 | grep "inet addr" | awk -F[:" "]+ '{ print $4 }' 192.168.100.171[root@storage1 ~]# ifconfig eth1 | grep "inet addr" | awk -F[:" "]+ '{ print $4 }' 192.168.200.171……2)、配置hosts⽂件并同步到所有节点去(也可以配置DNS,不过DNS解析绝对不会有hosts解析快,其次DNS服务器出问题会直接导致节点和节点以及和存储直接不能够解析⽽崩溃)12 3 4 5 6 7 8 9[root@manager ~]# cat /etc/hosts127.0.0.1 localhost 192.168.100.102 manager 192.168.100.171 storage1 192.168.200.171 storage1 192.168.100.172 storage2 192.168.200.172 storage2 192.168.100.173 node1 192.168.200.173 node1 192.168.100.174 node2 9 10 11 12 13 14 15 16 17 18 19 20 21 22192.168.100.174 node2 192.168.200.174 node2 192.168.100.175 node3 192.168.200.175 node3 192.168.100.176 node4 192.168.200.176 node4 [root@manager ~]# for i in {1..6}; do scp /etc/hosts 192.168.100.17$i:/etc/ ; done hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:003)、配置yum源(将所有节点光盘挂接到/media/cdrom,如果不⽅便,也可以做NFS,将镜像挂载到NFS⾥⾯,然后节点挂载到NFS共享⽬录中即可,注意:不同版本的系统,RHCS集群套件存放位置会有所不同,所以yum源的指向位置也会有所不同)1234 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38[root@manager ~]# cat /etc/yum.repos.d/rhel-gfs2.repo[rhel-cdrom]name=RHEL6U3-cdrombaseurl=file:///media/cdromenabled=1gpgcheck=0[rhel-cdrom-HighAvailability]name=RHEL6U3-HighAvailabilitybaseurl=file:///media/cdrom/HighAvailabilityenabled=1gpgcheck=0[rhel-cdrom-ResilientStorage]name=RHEL6U3-ResilientStoragebaseurl=file:///media/cdrom/ResilientStorageenabled=1gpgcheck=0[rhel-cdrom-LoadBalancer]name=RHEL6U3-LoadBalancerbaseurl=file:///media/cdrom/LoadBalancerenabled=1gpgcheck=0[rhel-cdrom-ScalableFileSystem]name=RHEL6U3-ScalableFileSystembaseurl=file:///media/cdrom/ScalableFileSystemenabled=1gpgcheck=0[root@manager ~]# for i in {1..6}; do scp /etc/yum.repos.d/rhel-gfs2.repo 192.168.100.17$i:/etc/yum.repos.d ; done rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00[root@manager ~]# for i in {1..6}; do ssh 192.168.100.17$i "yum clean all && yum makecache"; doneLoaded plugins: product-id, security, subscription-managerUpdating certificate-based repositories.Unable to read consumer identity……4)、时间要同步,可以考虑配置NTP时间服务器,如果联⽹可以考虑同步互联⽹时间,当然也可以通过date命令设置相同时间。

Linux平台Apache高可用双机集群Tomcat负载均衡集群配置手册

Linux平台Apache高可用双机集群Tomcat负载均衡集群配置手册

Linux平台Apache双机高可用集群+ Tomcat负载均衡集群配置手册在这个配置手册中,使用的操作系统和软件清单如下:操作系统:RedHat Enterprise Linux AS4 U4 64bit(安装时最好选择完全安装)软件:jdk-1_5_0_15-linux-amd64.binTomcat5.5.26httpd-2.0.63.tar.gzjakarta-tomcat-connectors-jk2-src-current.tar.gzipvsadm-1.24.tar.gzlibnet.tar.gzheartbeat-2.1.3-3.el4.centos.x86_64.rpmheartbeat-pils-2.1.3-3.el4.centos.x86_64.rpmheartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm因为是linux操作系统,所以在安装软件时请使用对应自己操作系统内核的软件,这是整个集群成功的第一步。

本配置手册中的软件都是对应RedHat Enterprise Linux AS4 U4 64bit 这个版本的软件。

jdk-1_5_0_15-linux-amd64.binJAVA环境包使用的是64位1.5版Tomcat版本为公司指定的5.5版本Apache为2.0.63版jakarta-tomcat-connectors-jk2-src-current.tar.gz是连接Apache和Tomcat的连接插件,具体可以去Tomcat网站上查找下载ipvsadm-1.24.tar.gzlibnet.tar.gz这两个是用于2台Apache服务器虚拟一个IP地址使用heartbeat-2.1.3-3.el4.centos.x86_64.rpmheartbeat-pils-2.1.3-3.el4.centos.x86_64.rpmheartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm这3个软件是用于2台Apache服务器之间的心跳检测结构图Apache1以以以以以Tomcat1Tomcat2Apache22台Tomcat服务器使用Tomcat软件可以自己做集群,2台Apache服务器需要其他的软件实现虚拟服务器功能,工作站访问虚拟IP地址访问2台Apache服务器,再通过Apache服务器访问Tomcat服务器第3 页总13 页1.安装JAVA环境包1)输入命令:./ jdk-1_5_0_15-linux-amd64.bin执行完毕后,会在当前目录下生成一个JDK-1.5.0_15的文件夹2)在 /usr/local/下新建一个名字为JAVA文件夹,将个JDK-1.5.0_15的文件夹拷入到该文件夹下3)设置环境变量。

LanderVault容灾统一管理平台

LanderVault容灾统一管理平台

什么是容灾集中管理平台LanderVault 核心业务容灾集中管理平台定位于保障企业级核心应用与数据安全,通过最大程度缩短企业核心业务停顿及全面保护企业重要数据安全,达到减小企业重要信息资产损失的目的。

一体化容灾解决方案LanderVault是一款集合高可用集群、数据复制、备份和系统容灾等功能于一体的数据安全产品集,定位于保障企业级核心应用与数据安全,通过最大程度缩短企业核心业务停顿及全面保护企业重要数据安全,达到减小企业重要信息资产损失的目的,是先进的一体化智能安全管理平台综合性解决方案。

核心业务容灾集中管理平台LanderVault管理平台基于Java虚拟机的跨平台管理端,将用户的关键业务按照业务逻辑分组管理,在一个控制台上能方便地部署数据安全产品,随时监控主机系统信息、网络信息、存储信息、进程信息和服务等信息,可以对数据安全产品进行管理及控制。

LanderVault容灾管理平台主要实现如下功能:集中管理远程管理跨平台管理管理和监控服务器管理和配置集群软件管理和配置复制软件管理和配置备份软件管理和配置容灾软件管理事务日志管理系统告警(邮件,声音,短消息)管理许可证数据安全系列产品包括如下模块:LanderVault:集中管理平台LanderCluster:高可用集群模块LanderReplicator:网格化数据复制模块LanderBackup:数据备份模块LanderDisaster:数据容灾模块每个模块都可以作为独立产品销售。

高可用集群模块:LanderClusterLanderVault体系中全新的高可用集群模块负责全面监控及保障用户核心应用,应用创造性的“故障分级”概念和独特的“故障预警”功能,在核心系统处于危险的状态下及时发出“警告”,并在必要的情况下自动执行精确而迅速的故障隔离及应用转移,保障用户核心应用7×24小时持续可靠运作,可支持多达256个节点的应用。

数据复制模块:LanderReplicatorLanderVault体系中的数据复制模块为您提供基于网格化的数据同步复制及数据可实时回放的CDP功能,无需购入任何其它设备就可以在现有系统中使用,从而为您节省成本。

HA

HA

HA 3.0 说明——by mzhaoHA概论 (2)HA3.0结构 (4)安装 (6)配置 (8)主机配置 (8)Heartbeat配置 (8)pacemaker配置 (9)Pacemaker详解 (12)参考资料 (13)HA概论高可用集群,英文原文为High Availability Cluster,简称HA Cluster,是指以减少服务中断(如因服务器宕机等引起的服务中断)时间为目的的服务器集群技术。

简单的说,集群(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源。

这些单个的计算机系统就是集群的节点(node)。

高可用集群的出现是为了使集群的整体服务尽可能可用,从而减少由计算机硬件和软件易错性所带来的损失。

它通过保护用户的业务程序对外不间断提供的服务,把因软件/硬件/人为造成的故障对业务的影响降低到最小程度。

如果某个节点失效,它的备援节点将在几秒钟的时间内接管它的职责。

因此,对于用户而言,集群永远不会停机。

高可用集群软件的主要作用就是实现故障检查和业务切换的自动化。

只有两个节点的高可用集群又称为双机热备,即使用两台服务器互相备份。

当一台服务器出现故障时,可由另一台服务器承担服务任务,从而在不需要人工干预的情况下,自动保证系统能持续对外提供服务。

双机热备只是高可用集群的一种,高可用集群系统更可以支持两个以上的节点,提供比双机热备更多、更高级的功能,更能满足用户不断出现的需求变化。

从这个定义可以看出,集群必须检测节点和服务何时失效,何时恢复为可用。

这个任务通常由一组被称为“心跳”的代码完成。

在Linux-HA里这个功能由一个叫做heartbeat的程序完成。

Heartbeat是Linux-HA工程的一个组件,自1999年开始到现在,发布了众多版本,是目前开源Linux-HA项目最成功的一个例子,在行业内得到了广泛的应用。

Heartbeat通过插件技术实现了集群间的串口、多播、广播和组播通信,在配置的时候可以根据通信媒介选择采用的通信协议,heartbeat启动的时候检查这些媒介是否存在,如果存在则加载相应的通信模块。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

nderSoft
Normal
联鼎软件
高可用集群模块介绍
作者:市场部
上海联鼎软件股份有限公司
版权所有
目录
第一节概述 (2)
第二节产品优势 (2)
2.1全新体系架构 (2)
2.2智慧系统健康与可用性评价体系 (2)
2.3深度应用侦测代理 (3)
2.4强大的故障分级处理 (4)
2.5增强的跨平台集群系统集中管理 (4)
2.6支持虚拟化环境 (5)
2.7集群按业务分组,单组集群支持多达64个节点及64个任务 (5)
2.8首创智能预警体系 (6)
2.9丰富的集群备援模式 (6)
2.10更高级别的监测准确度,更快速的切换速度 (6)
第三节产品关键功能 (6)
第一节概述
全新的高可用集群模块是landerVault体系中负责保护关键业务应用免遭软、硬件故障影响的应用软件。

应用创造性的“故障分级”概念,融入“智能感知”系统,彻底颠覆传统高可用集群系统简单的二元化故障判断方式,将传统高可用系统仅对“故障”所引起的结果(如宕机)做出反应提升为对“故障”的成因(系统健康指标)进行监控与分析,配合独特的“故障预警”机制,在核心系统即将发生严重影响业务持续运作情况前及时发出“预警”,并在必要的情况下自动执行精确而迅速的故障隔离及应用转移,将故障事后处理提升为故障事前预知,充分保障用户核心应用7×24小时持续可靠运作,可支持多达64个节点的应用,并为局域网(LAN)或广域网(WAN)上的客户机提供高可用性的服务。

第二节产品优势
2.1全新体系架构
创新的LanderCluster的体系结构,以面向“对象”为核心,对象包括:IPAddress,Alias,Volume,Process,Service,CPU,Memory,Network等,每个对象都有自己的属性、方法、事件。

集群容器(Container)是一个大的接口池,集群负责管理这些对象的生命周期,为每一个对象提供接口服务。

2.2智慧系统健康与可用性评价体系
高可用集群模块在业界首次提出了创造性的“系统健康评价体系”并加以应用,我们认为对系统的可用性判断必须是持续的,大量的情况证明系统从“可用”转向“不可用”并非是瞬
间发生,而存在一个过程,在这个过程中,系统的某些核心指标将会提前显示出异常,虽然此时系统对外表现出的仍然为“可用”,但整个系统实际已经处于“亚健康”,对客户端的请求反应逐渐变慢,系统出现不稳定的迹象,系统整体可用性逐渐降低,如果不进行任何干预,系统在未来某个时点将有极大可能转化为真正“不可用”,从而导致灾难性的后果。

通过高可用集群模块的“系统健康评价体系”,用户将及时发现系统的异常状态,有效判断系统目前真正的“健康”程度,并且经过对系统核心指标的综合分析,将能对系统未来可能发生的状况进行“预知”,直击造成系统转向“不可用”的原因,提前发现,提前预警,提前解决,令用户从“被动”的解决转向“主动”的发现与处理,让系统的可用性判断从“不可知”转为“可预知”。

2.3深度应用侦测代理
高可用集群保护下的核心业务通过代理(Agent)实时采集应用的运行态数据,结合“评价体系”来诊断系统可用性的。

可用性指标分为两类:一类是结果类,即模拟客户端访问是否成功,是否获得期望的响应;另一类是风险类,体现的是系统当前运行态的风险指数,如应用的连接数、数据库的存储空间使用率、Web的访问迟延、网络的流量、CPU的负载、系统内存的余量等等,这些因素都是系统能否正常工作的潜在风险,是进行故障预警的重要预测依据。

高可用集群模块提供常用软件的侦测代理,如Oracle、MS-Sql以及Web等,这些监控对象的接口及方法,被灵活保存在XML配置文件中。

集群提供开放的应用代理接口,用户可根据开发模板,自定义监控对象的指标采集方法,就可以让集群系统实时监控这些指标,触发相关的事件。

2.4强大的故障分级处理
高可用集群模块独特的故障分级处理系统能够满足用户自定义故障阀值,建立不同的故障评价标准,并对每一类故障进行自定义操作,提供最大的灵活性。

同时系统提供丰富插件,为用户提供精准的故障分析。

2.5增强的跨平台集群系统集中管理
LanderVault应用JAVA技术,实现全面的跨平台管理,允许用户在不同的平台中统一的管理整个集群,在不同平台中拥有统一界面,通过增强的LanderVault集中管理平台,用户能够全面集中监控及管理资源组内各台服务器的存储资源,网络负载,系统进程,系统服务,并可对目标服务器的进程及服务进行操作,从而极大简化集中管理的复杂度,实现合理资源配置。

2.6支持虚拟化环境
虚拟化大潮翻涌,软硬件虚拟化技术不断扩展,用户未来的核心应用极有可能运行于虚拟化的环境中,在虚拟化技术重新整合并分配用户资源的同时,对系统整体可用性的要求变得更为苛刻,一台运行了多个虚拟环境的服务器一旦出现故障将直接影响其上的所有虚拟系统,其损失远比单一系统环境严重数倍。

单个虚拟系统的故障同样需要进行故障转移,LanderVault系统中的高可用集群模块超前支持虚拟化存储环境,支持虚拟化操作系统环境VMware,支持单一虚拟化系统之间自由切换。

2.7集群按业务分组,单组集群支持多达64个节点及64个任务
LanderVault系统中的高可用集群模块支持为每组核心业务独立分组,便于管理,我们把逻辑相关的服务器部署在一个服务器组里,而把逻辑不相关的服务器放入不同的服务器组里。

在服务器组内,可以构建集群,复制,备份和容灾等数据安全解决方案,在每个分组内可支持多达64个节点,并可同时管理64个任务,完全满足大型企业级用户需求,为用户的系统扩展提供了充足的空间。

2.8首创智能预警体系
全新的系统智能预警体系,通过采集“系统健康评价体系”的数据,持续监控维持核心系统稳定运作的重要指标变化,包括处理器、内存、LAN 介质、存储设备、网卡、进程、应用程序实时状态,任意指标出现异常状况,即可快速作出响应,防患于未然。

2.9丰富的集群备援模式
支持丰富的集群备援模式,包括:单机高可用、主从、对等、多备一、一备多、多备多、多机互备,双存储备援,纯软环境集群,远程高可用,虚拟环境高可用等各类灵活方式。

2.10更高级别的监测准确度,更快速的切换速度
高可用系统在保障用户核心业务的同时,必须拥有极高的监测准确度、监测速度、降低系统停顿时间,高可用集群模块通过采用独特的MLDC 多链路数据交换协议,应用最多5层链路侦测,确保集群监测准确可靠,避免“脑裂”现象,并应用快速故障侦测及处理技术将系统切换时间缩短到以“秒”计算的范围,最大程度降低系统停机时间,提升系统可用性。

第三节 产品关键功能
支持各种切换策略:主备切换模式、回切模式、任务负载均衡模式。

通过强大的执行树功能,可自定义集群系统发生切换时各种资源停止及启动的执行顺序。

支持集群资源动态监控,第一个采用“健康系统安全评价体系”作为衡量集群可用性的方式,改变传统集群系统非“活”既“死”的二元化判断方法,可根据故障的严重程度,做不同级别的事件响应。

强大的Event Analyzer技术,可管理所有的任务调度和事件触发,具有人工智能。

支持windows、linux、unix系统平台,支持32位及64位操作系统,Windows平台和Linux平台采用统一的架构设计,可支持跨平台集群。

灵活的应用自定义接口(MObject),可满足所有应用的监控需求。

支持主流存储构架,如FC、ISCSI、SCSI及EXP等。

集群运行状态以直观的图形方式显示,
管理员轻松应对大规模系统环境。

专业深度监控插件,是目前唯一能对数据库系统的并发
用户数、表空间使用率以及进程占用CPU百分比等进行可用性定义的集群系统。

支持网格化多点镜像集群,与网格化复制模块结合,可实现广域网环境的异地高可用容错;与容灾模块结合,可实现异地应用级容灾。

完善的集群自我监控,应用进程互锁机制,最大程度保障集群系统自身健壮,避免集群丢失。

通过LanderVault先进B/S构架,系统管理员可轻松实现远程管理集群资源,并可针对集群组内大量资源统一分配及调整。

应用RSA的1024位密钥加密,确保用户核心数据万无一失。

支持多种报警方式(Mail、Vioce、SMS)。

支持中、英文语言界面,拥有完善的系统日志查看器,详细的系统帮助文档及手册。

相关文档
最新文档