图解 HACMP 5.4.1配置
在hacmp中配置用网线做心跳的时候用两种方法

在hacmp中配置用网线做心跳的时候用两种方法!hacmp, 网线1.就用四个boot地址去做心跳,不需要去增加其他的基如ip的网络去做心跳。
只需要在hacmp配置完成后,最后添加ip心跳的时候,进入到Extended Configuration > Extended Topology Configuration >Configure HACMP Networks> change a Network to the HACMP Cluster下的IP Address Offset for Heartbeating over IP Aliase一项中填入一个ip地址要求这个地址和其他ip地址都不在同一个网端内,当你输入hacmp会自动在四个bootip 上生成四个private的ip地址,做心跳用。
规则如下:当你输入10。
0。
0。
1,和其他的ip都不在同一个网段内。
机器会启动在a主机上 boot1生成10。
0。
0。
1,boot2上生成10。
0。
1。
1,备机上boot1生成10。
0。
0。
2,boot2生成10。
0。
1。
2。
这四个ip就是做心跳用的。
其他所有的选项都不动。
2.单独用其他的网卡做心跳。
如果要是两台机器的话,用一跟网线把两个端口直接连接起来,这样就和其他的四个boot ip都在不同的vlan内。
要是两个以上的话,就要用的交换机,但要将做心跳的所有主机的网口和boot ip放在不同的vlan内。
在第一步配ha的过程中,会自动探测到两个网络,一个网络里有四个bootip,一个网络里面是做心跳的端口,做心跳的端口不用去配置ip。
只需要去Extended Configuration > Extended Topology Configuration >Configure HACMP Networks> change a Network to the HACMP Cluste,在最后的一个选项中有一个网络的属性,默认的是public,选择做心跳的网络将其改为private即可,其他选项不变以上是在5。
Hacmp扩容详细

HACMP扩容基础目录HACMP扩容基础 (1)一、C-SPOC介绍 (2)二、创建PV (2)1、创建PV (2)2、检查PVID (3)三、使用C-SPOC功能扩展VG (3)1、进入C-SPOC (3)2、HACMP Logical Volume Management (4)3、Shared Volume Groups (4)4、Set Characteristics of a Shared Volume Group (4)5、Add a Volume to a Shared Volume Group (5)6、选择需要扩容的VG (5)7、回车,然后选择添加的硬盘 (5)8、确定无误后,回车继续 (5)9、检查两节点PV是否加入VG (5)四、使用C-SPOC功能扩展FS (6)1、进入System Management (C-SPOC) (6)2、HACMP Logical Volume Management (6)3、Shared File Systems (7)4、选择JFS2类型 (7)5、Change / Show Characteristics of a Shared JFS2 (7)6、选择需要扩容的文件系统 (8)7、输入文件系统大小 (8)8、修改LV属性以支持更多的LP (8)9、检查文件系统大小 (10)一、HACMP C-SPOC介绍为方便管理集群中的操作,HACMP 提供了一种方法,通过该方法可以在多个集群节点执行命令并维护要执行操作之间的协调。
一些集群维护操作可能影响HACMP 配置(拓扑和资源),但通过HACMP 系统管理工具(C-SPOC),无需停止关键作业即可执行这些任务(如添加或删除资源、用户和更改拓扑元素)。
注意:C-SPOC 使用一种新的集群通信守护进程(clcomdES) 在远程节点上执行命令。
如果此守护进程没有运行或者无法验证来自发起者节点的请求,将不会执行远程节点上的命令,因此C-SPOC 操作将会失败。
HACMP学习PPT

– –
21
HACMP5.1 concept and planning
2010-11-1
© 2003 IBM Corporation
IBM System and Technology Group
IP网络规划: IPAT via IP aliases(二)
设置 IPAT via IP aliases 功能 #smitty hacmp Extended Configuration > Extended Topology Configuration > Configure HACMP Networks > Change/Show a Network in the HACMP Cluster > Change/Show an IP-Based Network in the HACMP Cluster Change/Show an IP-Based Network in the HACMP Cluster Type or select values in entry fields. Press Enter AFTER making all desired changes. [Entry Fields] * Network Name net_ether_01 New Network Name [] * Network Type [ether] + * Netmask [255.255.255.0] + * Enable IP Address Takeover via IP Aliases [Yes] + IP Address Offset for Heartbeating over IP Aliases [] * Network Attribute public +
Hacmp_介绍

第一章介绍本章内容包括对IBM针对AIX产品线的高可用性集群多处理系统的介绍以及IBM高可用产品的概念本章将讨论以下主题:●什么是HACMP?●历史与发展●高可用性的概念●高可用性Vs容错1.1.什么是HACMP?在我们解释什么是HACMP以前,我们先来定义一下高可用性的概念。
High availability在当今复杂的环境下,成功实现IT应用的一个关键要素就是提供不间断的应用服务。
HA就是这样一个可以通过消除计划内/计划外宕机事件从而向客户应用提供不间断服务的部件,它能达到消除从硬件到软件的单点故障(SPOFs)。
一个高可用性解决方案可以保证方案中任何组件的失效(包括硬件、软件或系统管理)都不会造成客户无法访问应用和应用数据。
高可用性解决方案可以通过恰当的设计、计划、硬件选择、软件配置以及细心控制改变管理方法来消除单点故障。
Downtime停机时间是指应用程序不能为客户端提供服务的时间。
停机时间分为:➢计划内:-硬件升级-维修-软件更新/升级-备份(离线备份)-测试(对群集确认必须进行周期性测试)-发展➢计划外:-管理员过失-应用失效-硬件失效-其他不可抗力(天灾)IBM针对AIX的高可用性解决方案——HACMP给予饱经考验的IBM群集技术,它包括以下两个组件:➢高可用性:该进程保证应用在用户复制和/或共享资源时是可用的。
➢群集多处理:该进程提供在同一节点上多个应用共享或并发访问数据。
基于HACMP的高可用性解决方案提供自动失效检测、诊断、应用恢复和节点重新控制。
在恰当的应用中,HACMP还可以在并行应用处理中提供对数据的并发访问,从而提供更高的可扩展性。
标准的HACMP环境如图1-1。
1.1.1.历史与发展IBMHACMP最早可追溯至90年代。
HACMP在1990年开始为RS/6000机器上的应用提供高可用性解决方案。
我们不会提供关于更早版本的信息,原因在于这些版本要么已经不被支持或者已经不再使用,我们只提供近期一些版本的相关信息。
中间业务平台HACMP安装配置指南

一、HACMP 双机系统配置计划在配置中间业务平台HACMP环境之前首先要制定配置计划。
在IBM HACMP 的配置指南中推荐了一种配置计划表的方式(Planning Worksheet ),在进行配置考虑的时候将这些表格填完即可。
通常分行中间业务平台的HACMP环境大体都有相似的拓扑环境,两个Public 类型的网络,一个用于提供中间业务服务(使用IP alias方式),另一用于连接AS/400的SNA (必须使用IP replacement方式)Cluster WorksheetCluster Name:xxibp_clusterNode Name:xxMID_PRD,xxMID_BAK在主节点上配置拓扑结构然后同步到其他节点,网络拓扑如下:(1)Network概览Network Name Network Type Network Attribute Network Mask Node Namesnet_ibp Ether public 255.255.255.0 xxMID_PRD,xxMID_BAK net_sna Ether public 255.255.255.0 xxMID_PRD,xxMID_BAK net_rs232_01 RS-232 serial N/A xxMID_PRD,xxMID_BAK (2)Network内部结构Network net_ibpService地址:ibp_svc 10.1.7.33Boot地址:ibp_boot2 172.16.101.1ibp_boot1 172.16.100.1Network sna_netService地址:sna_svc 172.16.120.3Boot地址:sna_boot 172.16.120.1Standby地址:sna_stb 172.16.121.1SNA的网络配置IP(可以使用私有地址,如172网段的任何地址,但两块网卡要在同一网段),只是为了能够互相切换,平时的IP地址不用。
高可用集群软件(HACMP)的安装和使用

Using SMIT (information only)
选择:
Software Installation and Maintenance
屏幕显示软件安装和维护菜单:
选择:
Install and Update Software
屏幕显示软件安装和更新菜单:
选择:
Cluster Topology
Cluster Security
Cluster System Management
Cluster Recovery Aids
**NOTE: Cluster Manager MUST BE RESTARTED
HACMP软件的配置
北京地税大楼S70系统HACMP配置图如下,其中en0,en2为双网卡。S70a主机为业务主机,S70b主机为业务备机,另有7133磁盘阵列。
首先进行HACMP配置的准备工作:
1. 在两台主机上用VI建立 .rhosts文件,内容为:
ds01
ds02
ds01_serv
Configure Cluster
Configure Nodes
RAS Support
[Entry Fields]
* INPUT device / directory for software /dev/cd0
* SOFTWARE to install [_all_latest]
Software Installation and Maintenance
Software License Management
Devices
System Storage Management (Physical & Logical Storage)
HACMP配置

HACMP配置环境:OS:Aix 6.1P740两台,每台机器两个物理网卡.共享存储:IBM V7000操作系统:AIX 6.1HACMP版本:HACMP 5.3一.IP地址规划1.节点nodeA启动ip地址(nodeA_boot): en0 192.168.10.11 netmask:255.255.255.0 备用ip地址(nodeA_sta): en1 192.168.20.11 netmask:255.255.255.0 服务ip地址(nodeA_svc): 192.168.30.11永久ip地址(nodeA_per): 192.168.40.112.节点nodeB启动ip地址(nodeB_boot): en0 192.168.10.12 netmask:255.255.255.0 备用ip地址(nodeB_sta): en1 192.168.20.12 netmask:255.255.255.0 服务ip地址(nodeB_svc): 192.168.30.12永久ip地址(nodeB_per): 192.168.40.12二.安装HACMP5.3文件集1.安装HACMP5.3要求的操作系统文件集:bos.databos.adt.libbos.adt.libmbos.adt.syscalls.tcp.client.tcp.serverbos.rte.SRCbos.rte.libcbos.rte.libcfgbos.rte.libpthreadsbos.rte.odmbos.rte.lvmbos.clvm.enh(IBM aix5.3系统默认没有安装)2.要求的RSCT文件集pat.basic.hacmp 2.4.2.0pat.clients.hacmp 2.4.2.0rsct.core.sec 2.4.2.1rsct.basic.sp.2.4.2.0三.安装HACMP5.31.插入hacmp5.3光盘,除以下文件集外全部安装:cluster.es.pluginscluster.hativolicluster.haviewrsct.exp2.安装完成后重启AIX系统,并查看相关进程#lssrc -g cluster#ps -ef|grep cl*四、网络配置nodeA地址配置:#ifconfig en0 192.168.10.11 netmask 255.255.255.0#ifconfig en1 192.168.20.11 netmask 255.255.255.0nodeB地址配置:#ifconfig en0 192.168.10.12 netmask 255.255.255.0#ifconfig en1 192.168.20.12 netmask 255.255.255.0五.编写/etc/hosts文件(nodeA 和nodeB上都需要做相同添加)192.168.10.11 nodeA_boot nodeA192.168.20.11 nodeA_sta192.168.30.11 nodeA_svc192.168.40.11 nodeA_per192.168.10.12 nodeB_boot nodeB192.168.20.12 nodeB_sta192.168.30.12 nodeB_svc192.168.40.12 nodeB_per注:nodeA 和nodeB上配置完ip地址并且修改完hosts文件后,两台主机可以互相ping下,检测两边是否连通.六.修改网络参数#no -p -o nonlocsrcroute=1#no -p -o ipsrcrouterec=1#no -p -o routerevalidate=1七.编写/usr/es/sbin/cluster/etc/rhosts 文件(nodeA和nodeB上都需要相同修改),建立信任关系.192.168.10.11 //(nodeA的启动ip)192.168.20.11 //(nodeA的备用ip)192.168.10.12 //(nodeB的启动ip)192.168.20.12 //(nodeB的备用ip)八.编写/usr/es/sbin/cluster/netmon.cf文件(nodeA 和nodeB上各添加自己的启动ip和备用ip)nodeA上添加:192.168.10.11192.168.20.11nodeB上添加:192.168.10.12192.168.20.12九.创建程序服务的脚本启动文件(nodeA 和nodeB 上都做相同操作)#touch /etc/hastart1.sh#touch /etc/hastop1.sh#chmod -R /etc/hast*.sh十.验证串口设备的通信,以便于串口设置做HACMP心跳线nodeA上:#lsdev -c tty#cat < /dev/tty0nodeB上:#lsdev -c tty#cat /etc/hosts >/dev/tty0反之,将nodeA上查看的hosts文件信息重定向输出到nodeB的终端上.十一.共享存储配置SSA在节点nodeA上,配置SSA存储的raid#smiity ssaraid----> add an ssa raid array选择要创建的raid的类型添加创建raid所需要的磁盘查看命令:#lsdev -c disk 查看SSA logical disk drive#lspv 查看是否出现一个新的磁盘在nodeB上使用cfgmgr命令扫描硬件然后使用lspv命令查看是否能看到与nodeA上一样的一块新磁盘,如果nodeA和nodeB上都出现一块相同的的物理磁盘则证明共享存储SSA配置成功十二.共享卷组配置在节点nodeA上,使用共享磁盘创建卷组,并指定卷组的major号(主设备号),使用lspv查看共享磁盘为hdisk2.#mkvg -V 60 -y oravg hdisk2#lsvg -orootvgoravg修改卷组oravg属性,开机不自动启动#chvg -an oravg在新的卷组oravg上创建逻辑卷#mklv -t jfs2 -y halv oravg 5G在新的逻辑卷halv上创建文件系统 /hafs#crfs -v jfs2 -d halv -m /hafs在节点nodeA 上varyoffvg卷组#varyoffvg oravg在节点nodeB上为扫描出来的新共享磁盘hdisk2添加PVID#chdev -l hdisk2 -a pv=yes在几点nodeB上导入卷组,同时指定卷组的major号与节点nodeA上卷组的major 号相同#importvg -y oravg -V 60 hdisk2#lsvg -l oravg在节点nodeB上修改卷组的属性,使开机不自动激活并关闭卷组#chvg -an oravg#varyoffvg oravg#lspv十三.添加集群(以下操作需要在卷组所在的主机上操作,本篇中为nodeB)添加集群cluster1#smittyhacmp——>initialization and standard configuration ——>add nodes to an HACMP cluster指定cluster名:cluster1:选择nodeA和nodeB的启动ip地址十四.添加服务ip地址标签添加节点nodeA上的服务ip地址nodeA_svc#smitty hacmp——>initialization andstandard configuration——>configure resources to make highly available——>configure service ip labels/addresses——>add a service ip label/address选择nodeA的服务ip地址(该位置指定以后真正使用的服务ip地址)十五.添加应用服务#smitty hacmp——>initialization and standardconfiguration——>configure resources to make highlyavailable——>configure application servers——>add an application server添加如下:server name:appserverstart script: /etc/hastart1.shstop script: /etc/hastop1.sh十六.添加资源组添加新的资源组rsg1,参与的节点为nodeA和nodeB,且nodeA在前,表示节点nodeA的优先级最高#smitty hacmp——>initialization and standardconfiguration——>configure HACMP resource Groups——>add a resource group指定资源组名:rsg1;选择节点nodeA nodeB(备注:nodeA在前优先级高)十七.更改资源组更改资源组rsg1,将资源(服务ip,应用服务,卷组)加入资源组中#smitty hacmp——>initialization and standardconfiguration——>configure hacmp resource groups——>change/show resources for a resource group选择nodeA_svc,appserver1,oravg等资源十八.添加永久IP地址添加节点nodeA的永久ip地址(节点NodeA)#smitty hacmp——>extended configuration——>extended topologyconfiguration——>configure hacmp persistent node iplabel/address——>add a persistent node ip label/address选择节点nodeA上的永久ip地址:nodeA_per添加节点nodeB的永久ip地址(节点NodeB)#smitty hacmp——>extended configuration——>extended topology configuration——>configure hacmp persistent node iplabel/address——>add a persistent node ip label/address选择节点nodeB上的永久ip地址:nodeB_per十九.添加串口心跳网络和网络设备添加串口网络和设备#smitty hacmp——>extended configuration——>extended topology configuration——>configure hacmp communicationinterfaces/devices——>add communication interface/devices按F7键选中nodeA nodeB的串口心跳网络设备:>nodeA tty0 /dev/tty0>nodeB tty0 /dev/tty0二十.显示HACMP配置显示HACMP配置#smittyhacmp——>initialization and standard configuration——>display HACMP configuration二十一.验证并同步HACMP配置(将在nodeA上做的集群配置同步到nodeB上) smitty hacmp——>initialization and standard configuration——>verify and synchronize HACMP configuration同步成功表示集群配置成功!查看永久ip地址,可以看到没有启动hacmp服务时永久nodeA和nodeB的永久ip已经存在.nodeA#ifconfig -anodeB#ifconfig -a二十二.启动HACMP服务启动节点nodeA和节点nodeB的集群服务#smitty hacmp——>system management(C-SPOC)——>manage hacmp services——>start cluster services二十三.查看集群当前状态启动完成后,查看集群当前状态#smitty hacmp——>problem determination tools——>view current state 二十四.测试集群的高可用性1.服务ip地址在网卡间的漂移(服务ip地址nodeA_svc在nodeA的en0网卡上) nodeA#ifconfig en0 down 模拟en0网卡宕掉nodeA#ifconfig -dl 查看关闭的网卡nodeA#ifconfig -a 查看服务ip地址是否转移漂移到en1上nodeA#ifconfig en1 down 模拟en1网卡也宕掉了看服务ip地址是否漂移到nodeB主机上面2.服务ip地址主机间漂移#假设服务ip地址当前在nodeB主机上,通过reboot命令重启nodeB主机服务ip会自动漂移到nodeA主机上,当nodeA主机重启时服务ip地址会自动漂移到nodeB主机上;nodeB主机正常的关机,开机操作服务ip地址不会发生漂移,资源组中默认的是级联的漂移方式优先级高的优先获得服务ip地址.。
aix更改ip地址

aix更改ip地址环境:AIX 5LHACMP 5.2/5.3/5.4步骤:1.获取当前HACMP环境里配置的IP地址#/usr/sbin/cluster/utilities/cllsif > /tmp/cllsif.orig/tmp/cllsif.orig文件里就会包含HACMP网卡当前的IP地址2.停止所有节点的HACMP服务#smit clstop --> 选择HA的两个节点 --> 回车3.在两个节点上分别编辑/etc/hosts,将boot, standby, service更改成要求的IP地址4.在两个节点上分别用”smit chinet”更改boot和standby网卡的IP为要求的IP,需要和/etc/hosts中的IP对应一致5.在两个节点上互相ping对方的boot和standby的IP,确保能ping通6.在HACMP配置里更改IP6.1.更改Service IP第一步:删除原来的service IP label# smit hacmp --> Extended Configuration --> Extended Resource Configuration --> HACMP Extended ResourcesConfiguration --> Configure HACMP Service IP Labels/Addresses --> Remove Service IP Label(s)/Address(es) --> 选择IP标签 --> 回车第二步:添加新的Service IP Label# smit hacmp --> Extended Configuration --> Extended Resource Configuration --> HACMP Extended Resources Configuration --> Configure HACMP Service IP Labels/Addresses --> Add a Service IP Label/Address --> Configurable on Multiple Nodes --> 选择网络(比如net_ether_01) --> 在IP Label/Address处选择新的Server IP标签(列表中应该能看到更改后的server IP) --> 回车6.2.更改boot IP# smit hacmp --> Extended Configuration --> Extended Topology Configuration --> Configure HACMP Nodes --> Change/Show a Node in the HACMP Cluster --> 选择一个节点 --> 在Communication Path to Node处重新选择新的boot IP --> 回车执行。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
HACMP配置
1修改HOSTS文件
vi /etc/hosts
添加如下内容:
172.16.1.70 p550_boot
172.16.1.80 p520_boot
172.16.2.88 p550_srv
10.1.1.1 p550_stdby
10.1.1.2 p520_stdby
2建立节点信任机制
1)、修改各节点/usr/es/sbin/cluster/etc/rhosts文件,添加如下内容:
p550_boot
p520_boot
p550_srv
p550_stdby
p520_stdby
2)、修改root用户主目录下.rhosts文件,添加如下内容:
p550_boot
p520_boot
p550_srv
p550_stdby
p520_stdby
3)、修改/etc/hosts.equiv文件,添加如下内容:
p550_boot
p520_boot
p550_srv
p550_stdby
p520_stdby
4)、分别在各节点测试
ping p550_boot
ping p520_boot
ping p550_stdby
ping p520_stdby
rlogin p550_boot
rlogin p520_boot
3配置HACMP 3.1创建集群节点
#smitty hacmp
创建一个名称为“hatest”的集群,以下将两个节点加入集群:
输入“p550”,把“p550”加入集群
输入“p520”,把“p520”加入集群
3.2创建网络
选择“ether”
按回车
创建成功
3.3配置网络接口
在“IP Label/Address”,按F4,选择P550,回车
在“Node Name”,按F4,选择P550
按回车
然后按上述步骤,分别添加“p550_stdby”,“p520”,“p520_stdby”到网络中,“p550_stdby”属于p550节点,“p520”,“p520_stdby”属于p520节点
3.4配置磁盘心跳
3.4.1创建并发VG
两个节点从共享存储上映射过来的名称是hdisk2 在p550节点上创建并发VG:
#mkvg -C -f -n -S -V 200 -y datavg hdisk2
#varyoffvg datavg
在p520节点上导入VG信息:
#importvg -V 200 -y datavg hdisk2
导入成功
3.4.2创建心跳网络
选择“diskhb”
3.4.3创建心跳设备
填写p550节点的“Device Name”名称为“p550diskhb”,“Device Path”路径为“/dev/hdisk2”,“Node Name”为p550
重复上述步骤,创建p520节点的磁盘心跳,内容如下图:
3.4.4测试磁盘心跳
在p550上执行:
#/usr/sbin/rsct/bin/dhb_read -p hdisk2 -r
在p520上执行:
#/usr/sbin/rsct/bin/dhb_read -p hdisk2 -t
如果从p550到p520的连接通畅,两个节点上均会显示下列信息:
Link operating normally.
3.4.5创建资源组
3.4.5.1添加Service IP
3.4.5.2添加应用程序启动和停止脚本
填写“Service Name”以及启动和停止脚本的绝对路径
3.4.5.3添加资源组
填写资源名称“hatestres”,选中两个节点,内容如下图
3.4.5.4修改资源组
修改内容如下图
同步集群配置信息
3.5启动HA。