双服务器加磁盘阵列柜CLUSTER集群模式配置

合集下载

服务器之磁盘阵列RAID——配置方法(图解)

服务器之磁盘阵列RAID——配置方法(图解)

磁盘阵列可以在安装系统之前或之后产生,系统会视之为一个(大型)硬盘,而它具有容错及冗余的功能。

磁盘阵列不单只可以加入一个现成的系统,它更可以支持容量扩展,方法也很简单,只需要加入一个新的硬盘并执行一些简单的指令,系统便可以实时利用这新加的容量。

·RAID 的种类及应用IDE和SCSI是计算机的两种不同的接口,前者普遍用于PC机,后者一般用于服务器。

基于这两种接口,RAID分为两种类型:基于IDE接口的RAID应用,称为IDE RAID;而基于SCSI接口的RAID应用则相应称为SCSI RAID。

基于不同的架构,RAID 又可以分为:● 软件RAID (软件RAID)● 硬件RAID (硬件RAID)● 外置RAID (External RAID)·软件RAID很多情况下已经包含在系统之中,并成为其中一个功能,如Windows、Netware及Linux。

软件RAID中的所有操作皆由中央处理器负责,所以系统资源的利用率会很高,从而使系统性能降低。

软件RAID是不需要另外添加任何硬件设备,因为它是靠你的系统——主要是中央处理器的功能——提供所有现成的资源。

·硬件RAID通常是一张PCI卡,你会看到在这卡上会有处理器及内存。

因为这卡上的处理器已经可以提供一切RAID所需要的资源,所以不会占用系统资源,从而令系统的表现可以大大提升。

硬件RAID可以连接内置硬盘、热插拔背板或外置存储设备。

无论连接何种硬盘,控制权都是在RAID卡上,亦即是由系统所操控。

在系统里,硬件RAID PCI卡通常都需要安驱动程序,否则系统会拒绝支持。

·外置式RAID也是属于硬件RAID的一种,区别在于RAID卡不会安装在系统里,而是安装在外置的存储设备内。

而这个外置的储存设备则会连接到系统的SCSI卡上。

系统没有任何的RAID功能,因为它只有一张SCSI卡;所有的RAID功能将会移到这个外置存储里。

集群的配置步骤

集群的配置步骤

集群的配置步骤一、搭建集群环境的准备工作在开始配置集群之前,我们需要先进行一些准备工作。

首先,确保所有服务器都已经正确连接到网络,并且能够相互通信。

其次,确保每台服务器上已经安装了操作系统,并且操作系统版本一致。

最后,确保每台服务器上已经安装了必要的软件和工具,例如SSH、Java等。

二、创建集群的主节点1.选择一台服务器作为集群的主节点,将其IP地址记录下来。

2.登录到主节点服务器上,安装并配置集群管理软件,例如Hadoop、Kubernetes等。

3.根据集群管理软件的要求,配置主节点的相关参数,例如集群名称、端口号等。

4.启动集群管理软件,确保主节点能够正常运行。

三、添加集群的工作节点1.选择一台或多台服务器作为集群的工作节点,将其IP地址记录下来。

2.登录到工作节点服务器上,安装并配置集群管理软件,确保与主节点的版本一致。

3.根据集群管理软件的要求,配置工作节点的相关参数,例如主节点的IP地址、端口号等。

4.启动集群管理软件,确保工作节点能够正常连接到主节点。

四、测试集群的连接和通信1.在主节点服务器上,使用集群管理软件提供的命令行工具,测试与工作节点的连接和通信。

例如,可以使用Hadoop的hdfs命令测试与工作节点的文件系统的连接。

2.确保主节点能够正确访问工作节点的资源,并且能够将任务分配给工作节点进行处理。

五、配置集群的资源管理1.根据集群管理软件的要求,配置集群的资源管理策略。

例如,可以设置工作节点的CPU和内存的分配比例,以及任务的调度算法等。

2.确保集群能够合理分配资源,并且能够根据需要动态调整资源的分配。

六、监控和管理集群1.安装并配置集群的监控和管理工具,例如Ganglia、Zabbix等。

2.确保监控和管理工具能够正常运行,并能够及时发现和处理集群中的故障和问题。

3.定期对集群进行巡检和维护,确保集群的稳定和可靠性。

七、优化集群的性能1.根据实际情况,对集群的各项参数进行调优,以提高集群的性能和效率。

cluster配置方法

cluster配置方法

Redhat Cluster安装软件环境:Redhat Cluster4、Redhat Cluster 5操作步骤:安装过程之前请确认cluster组件已经安装.如果未安装,建议重装系统,或者编译yum源。

RED HAT做双机需要5个IP。

每台机器两个IP,网口一个,管理口一个,加上一个虚拟IP。

管理口IP需在BIOS里设定。

(一).进入第一台主机命令行Fence_ipmilan -a 192.168.100.12 -l USERID -p PASSW0RD -o status测试管理口是否能正常使用。

Vi /etc/sysconfig/network-scripts/ifcfg-eth0改网关编辑器内容显示Bootproto=staticonboot=yes#DHCP_HOSTNAME=localhost.localdomain井号的意义是把主机名注销掉然后设置IP,掩码,网关IPADDR=192.168.100.2NETWORK=255.255.255.0GATEWAY=192.168.100.1网络重启生效,命令如下/etc/init.d/network restart1.编辑:/etc/hosts:复制到各个节点中相应位置:/etc/node为主机名需要在每台机器上进行设置,操作指令为:vi /etc/sysconfig 找到hostname进行修改Fence为IMM管理口,在F1设置中需要设置IP(询问客户)设置IP与相对应的主机名(包括节点、fence设备、浮动IP)2.安装Cluster套件:运行system-config-cluster选择加锁模式,为DLM方式:3.设置cluster基本属性4.将两个节点加入到Cluster Nodes(节点名同主机名)中,Quornm Votes不需要设置:芯片,要在服务器中事先做好设置,ibm和dell服务器在这个选项中选择ipmi lan6.将各节点和相应的Fence Device关联起来7.建立一个Failover Domain域,将两节点加入到Domain中8.添加资源9.组建服务,向服务中添加资源10.保存集群配置文件,文件将放在/etc/cluster/中11.将配置文件拷入到其他节点中的相应位置:/etc/cluster/12.在每个节点中依次起一下服务:RHEL5下启动/停止service cman start/stopservice rgmanager start/stopRHEL4下启动/停止service ccsd start/stopservice cman start/stopservice fenced start/stopservice rgmanager start/stop。

双机配置

双机配置

此操作步骤请配合观看录象和矿上实际情况配置安装前准备1.安装好SQL2000数据库,库建在阵列上。

安装数据库时可以先关掉一台机器,将数据库的程序文件放在默认的C盘,数据文件指定在磁盘阵列上的一个文件夹。

在安装完此数据库后将磁盘阵列上的数据文件夹更改名称,(例如存放在的CPDA TA改成-->CPDATA1)避免在安装另外一台服务器时选择数据文件路径时覆盖该文件夹而出错。

在安装第二台服务器的数据库时,操作方法和第一台相同,数据文件存放文件夹名称要一致(CPDA TA)。

2.规划好IP和主机名,确保应用服务器不冲突3.所有由双机软件控制的服务都设置成手动(在这里为MSSQLSERVER和SQLSERVERAGENT)4.做好脚本启动用户软件start.bat 脚本右键编辑,核对两个文件路径是不是现在用的DC DG的文件路径,检查的办法可以双击执行该脚本,看是否能正常启动KJ4N的DC和DG 程序。

START.BAT不是安装生成文件,程序包内带有,没有固定要求,一般放在KJ4N文件夹下就可以,只要在配置过程中输入START.BA T正确的文件存放路径就可以。

安装双机软件步骤1.安装双机程序一路选择默认安装就可以,注意2台服务器都要安装但是配置过程只用在2台服务器联网的状态下配置其中一台就可以的,配置过程时同步的。

2.双机配置信息:双机集群名:可以自定义虚拟主机名:可以自定义从外界看2台服务器是1台机器,给这台机器起的名称就是虚拟主机名虚拟IP:虚拟IP的原理同上管理工具:控制服务:MSSQLSERVER;SQLSERVERAGENT;启动脚本:D:\anhang\KJ4N\start.bat; 这个路径是存放START.BAT的路径监控进程:Kj4N-DG .exe;KJ4N-DC.exe;切换规则:普通模式软件配置步骤1.把双机需要控制的服务设置成手动,如图:2.打开集群管理器3.在集群管理器里随意填入集群名字(此处为New Cluster1)4.添加双机主机5.分别为两台主机添加网络信息,选择时会自动弹出本机IP,心跳和本机IP选择一致。

双活数据中心解决方案(最新)

双活数据中心解决方案(最新)

构建永不宕机的信息系统——双活数据中心双活数据中心解决方案目录案例分享12存储层应用层双活数据中心端到端技术架构数据中心A 数据中心B双活存储层双活访问、数据零丢失异构阵列双活应用层Oracle RAC 、VMware 、FusionSphere 跨DC 高可用、负载均衡、迁移调度双活网络层高可靠、优化的二层互联最优的访问路径≤100km 裸光纤Fusion SphereFusion Sphere接入层汇聚层核心层DC 出口网络层GSLB SLBGSLB SLB前端应用的双活(VMware )vm vm vm vm vm vm vm vm vm vm vm vmADvm vm vm vm SQL node1MSCSvCenterServervm vmvm vm APP…….APP…….SQL node2MSCSvm vm vm vm vm vm vm vm vm 大二层互通网络,跨数据中心VM 配置双活应用,使用虚拟化网关提供的镜像卷作为共享存储Weblogic业务集群管理集群vmWeblogic•vSphere Cluster HA •vSphere Cluster DRS •配置PDL 参数•Huawei OceanStor UltraPath for vSphere•配合负载均衡设备实现Weblogic 访问自动漂移和均衡VMware 配置要点业务访问效果•业务访问负载均衡•虚拟机分布按业务压力自动均衡•故障自动切换访问•Weblogic 可动态扩展•单数据中心故障恢复后,虚拟机自动回切Operating System Instance1Listener1Service1Operating SystemInstance2Listener2Service1Operating SystemInstance3Listener3Service2VIP3VIP2VIP1Shared Storage数据中心A 数据中心B服务配置策略服务名INSTANCE1INSTANCE2INSTANCE3SERVICE1PREFERRED PREFERRED AVAILABLE SERVICE2AVAILABLEAVAILABLEPREFERRED•集群“2+1”部署›适配数据中心业务分布有偏重的场景›适配两个数据中心存在优先存活数据中心的场景•Oracle RAC 仲裁原则›拥有最多节点数目的子集群(Sub-cluster with largest number of Nodes )获胜›若子集群内数目相等则拥有最低节点号的子集群(Sub-cluster with lowest node number)获胜数据中心业务分布设计访问分离减少缓存融合•访问分离›为了避免跨数据中心进行数据的交互,建议在Oracle RAC 层创建不同的service ,实现业务分离。

NEC+ExpressCluster安装及配置说明

NEC+ExpressCluster安装及配置说明

NEC ExpressCluster安装及配置说明一、确认网络环境:网络搭建需要2个网络支持,一个是私网,一个是公网。

私网是用来做服务器集群镜像数据同步的,公网是用来做外部数据输入和输出的。

搭建时,私网可以将2个服务器极联,处于同一IP段内;公网连接在同一个交换机上,处于同一IP段内。

私网和公网不能处于同一个IP段。

说明中,2个服务器(机器名为MSC和CC)搭建的公网IP为192.168.1.3和192.168.1.4,私网IP为192.168.2.3和192.168.2.4。

下一步设置网络访问顺序,网络连接→高级→高级设置,如图:通过右边向上和向下按钮调节公网和私网的顺序,要求公网在上,私网在下,然后点“确定”。

分别为2台服务器做以上设置。

设置好后2台服务器互PING一下,要求2台服务器之间公网和私网都能互通。

二、确认磁盘环境:服务器集群镜像数据同步需要建立2个磁盘分区,一个是管理分区,一个是数据分区。

管理分区是用来存储集群软件配置文件的分区,数据分区是用来存储应用数据的分区,比如说数据库。

换句话理解就是管理分区是NEC ExpressCluster程序用的分区,而数据分区是公司软件用的分区。

使用这个软件的目的就是在多服务器系统中,通过该软件以镜像方式将公司软件需要的数据存储在多个服务器的数据分区中,并使之能够自动切换。

一般较多应用于主备数据库同步中。

下一步进行分区设置:打开计算机管理→磁盘管理→在未划分磁盘上“新建磁盘分区”,如图:按照“新建磁盘分区向导”划分一个大小为20000M的分区,驱动器号为E,作为管理分区。

注意,管理分区不能小于17M,并且不能格式化,并完成向导。

同样的操作方法,将剩余空间以驱动器号H,划分为数据分区。

注意:数据分区要求执行格式化。

同理,将第二个服务器也做相同磁盘配置。

注意:2台服务器的管理分区和数据分区大小要保持一致!三、NEC ExpressCluster软件的安装:双击运行安装程序单击红框按钮单击红框按钮下一步下一步安装开始安装进度。

Linux系统双机热备的方案

Linux系统双机热备的方案

Linux系统双机热备的⽅案Linux系统双机热备的⽅案⽬前,双机和集群采⽤的操作系统主要有UNIX、Linux、BSD及微软公司的Windows NT/2000。

随着Linux的迅速发展,稳定性、安全性及功能的不断增强,⼈们对Linux的使⽤越来越⼴泛,Linux已成为服务器市场中的⼀个重要操作系统,基于Linux的双机和集群系统也越来越多。

Linux集群的主要优点有:⾼可靠性、⾼性能、低成本等等。

1.1 概述1.1.1 实现⽬的双机热备份(Hot Standby)是⼀种软硬件相结合的⾼可靠性应⽤⽅案。

双机热备系统由两台独⽴的服务器以及相应的控制软件构成,两台服务器在⽹络中表现为单⼀的系统,对外表现为⼀个独⽴的⽹络IP,并以单⼀系统的模式进⾏控制和管理。

该系统将两台服务器的数据和运⾏状态(包括硬盘数据和内存数据)进⾏镜像,可以实现两台服务器之间的热备份,并能够做到⽆缝切换,从⽽对外提供稳定可靠的服务,实现双机系统的⾼可⽤性解决⽅案。

1.1.2 功能概述双机热备份系统由相应的应⽤软件进⾏控制,操作系统和应⽤程序安装在两台服务器的系统盘上。

每⼀台服务器分配⼀个固定的IP地址,此外还指定了⼀个独⽴IP地址作为集群IP(cluster IP),该IP是双机系统对外提供服务的接⼝。

两台服务器⼀台成为主节点(Primary Server),另⼀台成为从节点(Standby Server),主节点与从节点之间保持固定时间间隔的⼼跳信号,通过⼼跳信号实现两个对等系统之间的周期性的握⼿,从⽽能够监视对⽅的运⾏状态,进⾏主机及⽹络的故障检测。

在系统正常情况下,主节点占⽤系统资源并运⾏所有的服务,为信息系统提供⽀持,从节点通过⼼跳信号监视主节点的运⾏情况。

⼀旦主节点发⽣故障(如主机故障,⽹络故障,软件故障等),从节点就会⾃动接管(Take Over)主节点的资源和服务,继续⽀持信息的运营,从⽽保证整个双机系统能够不间断的运⾏(Non-Stop)。

Dell服务器做Cluster(集群)的硬件配置方法

Dell服务器做Cluster(集群)的硬件配置方法

Dell服务器做Cluster(集群)的硬件配置方法配置环境:两台服务器(Server1, Server2)连接一个PV220S磁盘阵列柜。

配置步骤:1. 将PV220系列阵列柜上的拔动开关打到CLUSTER模式, 这个开关如果是开机时改的, 需重启一次盘柜更改才能生效。

开关的位置在盘柜背面中间的一块卡上。

2. 连接两个服务器与磁盘阵列柜的连线:两个服务器需各配一块阵列卡,各连接一根SCSI线到盘柜后面的EMM卡上。

如果服务器上的阵列卡是双通道的,两个服务器连接SCSI线的通道要一致。

(如果Server1是连接通道1,则Server2也需要连接通道1)注:服务器连接内部硬盘与连接外部阵列柜不能使用同一块RAID 卡,如果服务器没有板载的阵列控制器,本机硬盘也要做阵列的话,则需要配置两块阵列卡。

3. 启动Server1, 第二节点服务器为Server2),按Ctrl + M进入RAID控制器的BIOS,选择Object ? Adapter,将Disable BIOS改成Enable BIOS, 这个选项是将RAID的启动BIOS选项关闭,目的是不从这块RAID启动操作系统(页面上会显示是ENABLE BIOS,实际上BIOS已经被DISABLE了)。

4. 将Cluster Mode设置为Enable, 服务器会重启。

重启过后再按Ctrl + M进入RAID卡的BIOS,将RAID控制器的Initiator ID设为7(默认即为7)。

5. 配置磁盘阵列:退到第一层菜单,选择Configure ? New Configuration配置盘柜硬盘的阵列。

(注:此选项会清除原盘柜上所有的阵列信息。

)6. Server1关机,启动Server2, 按Ctrl + M进入RAID控制器的BIOS,选择Object ? Adapter,将显示的Disable BIOS改成Enable BIOS。

7. 将Cluster Mode设置为Enable,服务器会重启。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

双服务器加磁盘阵列柜CLUSTER集群模式配置
配置环境:两台服务器(Server1, Server2)连接一个PV220S磁盘阵列柜。

1. 将PV220系列阵列柜上的拔动开关打到CLUSTER模式, 这个开关如果是开机时改的, 需重启一次盘柜更改才能生效。

开关的位置在盘柜背面中间的一块卡上。

2. 连接两个服务器与磁盘阵列柜的连线:两个服务器需各配一块阵列卡,各连接一根SCSI线到盘柜后面的EMM卡上。

如果服务器上的阵列卡是双通道的,两个服务器连接SCSI线的通道要一致。

(如果Server1是连接通道1,则Server2也需要连接通道1)
注:服务器连接内部硬盘与连接外部阵列柜不能使用同一块RAID卡,如果服务器没有板载的阵列控制器,本机硬盘也要做阵列的话,则需要配置两块阵列卡。

Adapter,将Disable BIOS改成Enable BIOS, 这个选项是将RAID的启动BIOS选项关闭,目的是不从这块RAID启动操作系统(页面上会显示是ENABLE BIOS,实际上BIOS已经被DISABLE了)。

3. 启动Server1, 第二节点服务器为Server2),按Ctrl + M进入RAID控制器的BIOS,选择Object
4. 将Cluster Mode设置为Enable, 服务器会重启。

重启过后再按Ctrl + M进入RAID卡的BIOS,将RAID控制器的Initiator ID设为7(默认即为7)。

New Configuration配置盘柜硬盘的阵列。

(注:此选项会清除原盘柜上所有的阵列信息。

) 5. 配置磁盘阵列:退到第一层菜单,选择Configure
Adapter,将显示的Disable BIOS改成Enable BIOS。

6. Server1关机,启动Server2, 按Ctrl + M 进入RAID控制器的BIOS,选择Object
7. 将Cluster Mode设置为Enable,服务器会重启。

重启过后再按Ctrl + M进入RAID卡的BIOS,将RAID控制器的Initiator ID(默认为7)改为6。

(Server1设为6,Server2为7也可以,目的是只要两台服务器的ID不一致就行)
View Disk,在选择了Vidw/Add Configuration时,系统会提示两个选择View Disks或者是
View NVRAM, 这时要选择View Disk, 检查所有的阵列配置是否与Server1相同,确认无误时按Esc,系统会提示是否要保存,选择”Yes”保存。

因为硬盘上的阵列已经在Server1上配好,所以这里不需要重新配置,只要把硬盘上的阵列信息读出来再保存到RAID卡上就可以了。

View/Add Configuration 8. 读取磁盘阵列信息:退到第一层菜单,选择Configure
9. 这时硬件过程配置完毕!。

相关文档
最新文档