REDHAT RHCS 配置笔记

合集下载

[全]RHCE 300分的学习笔记

[全]RHCE 300分的学习笔记

RHCE 300分的学习笔记RHCE复习笔记隐含条件:YUM仓库已经配置,IP也已经配置若无法使用ssh远程,说明防火墙限制了ssh登陆# firewall-cmd --list-all# firewall-cmd --add-service=ssh 让防火墙对ssh服务放行## firewall-cmd --add-service=ssh --permanent 让防火墙对ssh服务永久放行第一题:配置Selinux:vim /etc/sysconfig/selinux改为enforcing:wq!:setenforce 1 //在system1和system2上都做一次:getenforce第二题:配置对SSH的限制# vim /etc/hosts.allowsshd : # vim /etc/hosts.denysshd : //在system1和system2上都做一次//可以增加对SSH的规则:(man firewalld.richlanguage example4 ):firewall-cmd --list-all:firewall-cmd --add-rich-rule 'rule family="ipv4" source address="172.17.10.0/24" service name="ssh" reject' --permanent:firewall-cmd --reload:firewall-cmd --list-all第三题:配置IPV6地址:nmcli connection modify eth0 ipv6.addresses fddb:fe2a:ab1e::c0a8:1/64ipv6.method manual connection.autoconnect yes:nmcli connection up eth0 //在system1和system2上都做一次,注意两段ipv6地址不一样,也可以是:nmcli connection up eth0用server0来测试:if# ping6 fddb:fe2a:ab1e::c0a8:2 //server0是1,desktop是2注意下#ping desktop0第四题:配置链路聚合//man nmcli-examples|grep team// man teamd.conf | grep backup#nmcli connection add type team con-name team0 ifname team0 config '{"runner": {"name": "activebackup"}}'//config后面这个在模板中可以找到:man teamd.conf里,查找example,按N 下一个,找到"runner": {"name": "activebackup"}这个参数复制过来,即可,参考命令:man nmcli-examples | grep team |grep \\$ man teamd.conf | grep backup# nmcli connection modify team0 ipv4.addresses 192.168.0.101/24 ipv4.method manual connection.autoconnect yes#nmcli connection add type team-slave con-name team0-s1 ifname eth1 master team0#nmcli connection add type team-slave con-name team0-s2 ifname eth2 master team0# nmcli connection modify team0-s1 connection.autoconnect yes# nmcli connection modify team0-s2 connection.autoconnect yes# nmcli connection show 查看一下然后在desktop上做一样的操作测试:在server上ping desktop的链路地址,一直ping在desktop上:# teamdctl team0 state 查看当前状态是几网卡#nmcli connection down team0-s1 //team0-s1是eth1网卡的意思查看server0上ping是否断掉,没有断则正常最后把team0-s1再正常启动起来,up一下。

红帽RHCS(Red Hat Cluster Suite)集群维护

红帽RHCS(Red Hat Cluster Suite)集群维护

红帽RHCS(Red Hat Cluster Suite)集群维护1.启动RHCS集群 (1)2.关闭RHCS集群 (1)3.管理应用服务 (2)3.1.启动某个应用服务 (2)3.2.关闭某个应用服务 (2)3.3.重启某个应用服务 (2)3.4.切换某个服务 (3)4.监控RHCS集群状态 (3)1.启动RHCS集群RHCS集群的核心进程有cman和rgmanager,要启动集群,依次在集群的每个节点执行如下命令即可:service cman startservice rgmanager start需要注意的是,执行这两个命令是有先后顺序的,需要首先启动cman,然后再启动rgmanager(在集群所有节点成功启动cman 服务后,然后继续依次在每个节点启动rgmanager服务)。

如果用了GFS2集群文件系统,那么启动的方式为:service cman startservice qdiskd startservice clvmd startservice gfs2 startservice rgmanager start2.关闭RHCS集群与启动集群服务刚好相反,关闭RHCS集群的命令为:service rgmanager stopservice cman stop首先在集群的每个节点依次关闭rgmanager服务,等待所有节点的rgmanager服务成功关闭后,再依次关闭每个节点的cman服务即可完成整个集群服务的关闭。

有时在关闭cman服务时,可能会提示关闭失败,此时可以检查本机的共享存储GFS2文件系统是否已经卸载,还可以检查其它节点的rgmanager服务是否都已经正常关闭。

3.管理应用服务集群系统启动后,默认是自动启动应用服务的,但是如果某个应用服务没有自动启动,就需要通过手工方式来启动。

管理应用服务的命令是clusvcadm,通过这个命令可以启动、关闭、重启、切换集群中的应用服务。

RHCE笔记

RHCE笔记

其次将yum源各项参数介绍一下哈:
[root@localhost /]# cat /etc/yum.repos.d/rhel-source.repo
[base]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
DEVICE="eth0" #设备名称叫eth0
HWADDR="00:0C:29:FF:33:5E" #设备MAC地址
NM_CONTROLLED="yes" #是否被NetworkManager服务进行管理。
NetworkManager、NetworkManagerDispatcher
dumpe2fs 1.41.12 (17-May-2010)
Default mount options: user_xattr acl
动态实时重新挂载目录使其支持acl:
我这里以自己的分区/aa为例
mount -o remount,acl /aa
并将选项加入fstab文件使其下次开启自动生效。
二、ACL的名词定义
先来看看在ACL里面每一个名词的定义。
ACL 是由一系列的访问条目所组成的. 每一条访问条目定义了特定的类别可以对
文件拥有的操作权限. 访问条目有三个组成部分: Entry tag type, qualifier
(optional), 权限
我们先来看一下最重要的Entry tag type, 它有以下几个类型
IPV6_AUTOCONF=no (开启或关闭IPv6自动配置;关闭no,开启yes)
NETMASK=255.255.255.0 (网卡对应的网络掩码)

红帽RHCE认证-常用命令与文本编辑器

红帽RHCE认证-常用命令与文本编辑器

使用nano编辑器
nano也是一个简单的文本编辑器,可以通过按Ctrl+O保存文件,按
Ctrl+X退出编辑器。
03
配置文件修改
在进行系统配置时,需要修改一些配置文件,如/etc/hosts、
/etc/fstab等,可以使用文本编辑器打开这些文件进行修改。
感谢观看
THANKS
红帽RHCE认证-常 用命令与文本编辑 器
目 录
• 红帽Linux基础 • 常用命令 • 文本编辑器 • 实战操作
01
红帽Linux基础
文件和目录操作
创建目录
使用`mkdir`命令创建新目录。
删除目录
使用`rmdir`命令删除空目录。
列出目录内容
使用`ls`命令列出目录中的文件和子目录。
切换目录
nano编辑器
详细描述
总结词:简单易用、适合初 学者的文本编辑器
02
01
03
Nano是一个简单易用的文本 编辑器,具有直观的界面和
操作方式。
Nano提供了基本的文本编辑 功能,如撤销、复制、粘贴、
查找和替换等。
04
05
Nano支持语法高亮显示,可 以更好地显示代码和其他文
本格式。
emacs编辑器
总结词:功能强大、高度可定制的文本 编辑器
Vim可以通过配置文件来自定义编辑器 的行为和外观,满足不同用户的需求。
Vim支持命令模式和插入模式两种操作 模式,用户可以通过快捷键在两种模式 之间切换,提高编辑效率。
详细描述
Vim是一个高度可定制的文本编辑器, 提供了丰富的文本编辑功能,如撤销、 复制、粘贴、查找和替换等。
创建组
使用groupadd命令可以创建 一个新组,例如`groupadd groupname`。

rhce知识点

rhce知识点

rhce知识点:
一、作为Linux系统认证的考试,需要理解和熟悉Linux操作系统是非常重要的。

你需要到redhat原厂重庆思庄认证学习中心学习Linux的基本架构、内核原理、文件系统及目录结构等。

二、网络配置和管理:RHCE考试中涉及到网络配置和管理的内容很多。

你需要学习如何设置IP地址、子网掩码、网关等基本网络设置,还需要学习如何配置和管理网络接口、路由、防火墙以及网络服务等。

三、系统安全:RHCE考试对系统安全的要求较高。

你需要学习如何配置和管理安全策略、使用防火墙和SELinux进行安全保护、使用密钥和证书进行远程登录等。

四、Shell脚本编程:熟练掌握Shell脚本编程是成为一名RHCE的关键技能。

也需要学习Shell基本语法、流程控制、函数、变量和输入输出等。

五、服务和应用管理:RHCE考试还涉及到服务和应用的管理。

同时也学习如何安装、配置和管理常见的服务和应用程序,如Web服务器、数据库服务器、邮件服务器等。

六、故障排除和性能优化:学习RHCE的同时需要学习如何快速诊断和解决系统故障,并进行性能优化。

使用系统日志、监测工具和性能调优命令进行故障排查和性能优化。

RHCS(Oracle)配置实战图解

RHCS(Oracle)配置实战图解

12.5 I/O屏障技术红帽集群套件(Red Hat Cluster Suite)中要求硬件能支持I/O屏障(Fenceing)技术,这与众多第三方集群方案不同,由于此技术增加了系统架构的复杂性,很多用户不理解为何还要使用此技术。

Fencing主要用于防止集群系统的"脑裂(Brain-Split)",在"脑裂"发生之前,通过硬件信号方式对服务器进行断电或者对光纤链路进行断链来保护客户的重要数据。

红帽集群套件中明确要求建立集群的服务器支持Fence设备,这些设备主要包括:服务器或刀片中心控制设备:1.Bull Fame (PAP) Management Console2.Dell DRAC 3/4/5/MC3.Fujitsu-Siemens RSB4.HP ILO 1/25.IBM Blade Center/RSA II6.Intel IPMI over LAN专用UPS电源交换机:1.APC MasterSwitch AP79XX系列2.WTI IPS系列3.WTI MPC-8H (5.3)4.WTI NBB-1600/1600-CE5.WTI RSM-8R4 (5.3)6.WTI TPS-2SAN光纤控制设备:1.Brocade Silkworm 2400/2800/32002.Dell PowerVault 56F3.McData Sphereon 45004.Vixel 9200通过以上设备可以有效地保证服务器的集群工作,如果没有这些设备,则可以选择使用以下方案。

Fence_scsiFence_scsi基于SAN设备的SCSI-3 Persistent Reservation(SCSI-3 PR)永久保留功能,当前已有部分SAN存储设备支持此功能。

但请注意,此功能不可与multipath一同使用。

虚拟化Fence支持红帽RHEL 5系列的虚拟机之间实现Fencing操作,可实现本地物理服务器间的虚拟机Fencing或跨服务器的虚拟机Fencing,以结合RHCS提供的虚拟机集群方案。

RHCS6配置操作文档(双机配置、双网卡绑定等)

RHCS6配置操作文档(双机配置、双网卡绑定等)
手工测试启停是否正常: [root@test1 ~]#./HA_db status [root@test1 ~]#./HA_db start [root@test1 ~]#./HA_db stop [root@test1 ~]#./HA_db restart
9. 创建集群、添加节点
从服务器本机登录管理页面,用户名使用 root 用户
设置 test1 的 IP 地址: [root@test1 ~]# vi /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE="eth0" BOOTPROTO=none NM_CONTROLLED="yes" ONBOOT=yes TYPE="Ethernet" UUID="ea73b5b6-e249-4cb8-b2b1-dc0d25cf432f" IPADDR=192.168.40.72 PREFIX=24 GATEWAY=192.168.40.1 DEFROUTE=yes IPV4_FAILURE_FATAL=yes IPV6INIT=no
创建 cluster 之前,不要启动 cman 服务,待 cluster 创建后,已经生成了 cluster.conf 文件后再启动 cman 服务。如果此时启动 cman 会报错,提示找不到 cluster.conf, 属于正常现象,创建 cluster 后就可以成功启动 cman 了。
# service modclusterd start # service luci start # service ricci start # service rgmanager start # --service cman start

红帽集群套件RHCS四部曲(测试篇)

红帽集群套件RHCS四部曲(测试篇)

红帽集群套件RHCS四部曲(测试篇)集群配置完成后,如何知道集群已经配置成功了呢,下面我们就分情况测试RHCS提供的高可用集群和存储集群功能。

一、高可用集群测试在前面的文章中,我们配置了四个节点的集群系统,每个节点的主机名分别是web1、web2、Mysql1、Mysql2,四个节点之间的关系是:web1和web2组成web集群,运行webserver服务,其中web1是主节点,正常状态下服务运行在此节点,web2是备用节点;Mysql1和Mysql2组成Mysql集群,运行mysqlserver服务,其中,Mysql1是主节点,正常状态下服务运行在此节点,Mysql2为备用节点。

下面分四种情况介绍当节点发生宕机时,集群是如何进行切换和工作的。

1 节点web2宕机时宕机分为正常关机和异常宕机两种情况,下面分别说明。

(1)节点web2正常关机在节点web2上执行正常关机命令:[root@web2 ~]#init 0然后在web1节点查看/var/log/messages日志,输出信息如下:Aug 24 00:57:09 web1 clurgmgrd[3321]: <notice> Member 1 shutting downAug 24 00:57:17 web1 qdiskd[2778]: <info> Node 1 shutdownAug 24 00:57:29 web1 openais[2755]: [TOTEM] The token was lost in the OPERATIONAL state. Aug 24 00:57:29 web1 openais[2755]: [TOTEM] Receive multicast socket recv buffer size (320000 bytes).Aug 24 00:57:29 web1 openais[2755]: [TOTEM] Transmit multicast socket send buffer size (219136 bytes).Aug 24 00:57:29 web1 openais[2755]: [TOTEM] entering GATHER state from 2.Aug 24 00:57:49 web1 openais[2755]: [TOTEM] entering GATHER state from 0.Aug 24 00:57:49 web1 openais[2755]: [TOTEM] Creating commit token because I am the rep.Aug 24 00:57:49 web1 openais[2755]: [TOTEM] Saving state aru 73 high seq received 73Aug 24 00:57:49 web1 openais[2755]: [TOTEM] Storing new sequence id for ring bc8Aug 24 00:57:49 web1 openais[2755]: [TOTEM] entering COMMIT state.Aug 24 00:57:49 web1 openais[2755]: [TOTEM] entering RECOVERY state.Aug 24 00:57:49 web1 openais[2755]: [TOTEM] position [0] member 192.168.12.230:Aug 24 00:57:49 web1 openais[2755]: [TOTEM] previous ring seq 3012 rep 192.168.12.230Aug 24 00:57:49 web1 openais[2755]: [TOTEM] aru 73 high delivered 73 received flag 1Aug 24 00:57:49 web1 openais[2755]: [TOTEM] position [1] member 192.168.12.231:Aug 24 00:57:49 web1 openais[2755]: [TOTEM] previous ring seq 3012 rep 192.168.12.230Aug 24 00:57:49 web1 openais[2755]: [TOTEM] aru 73 high delivered 73 received flag 1Aug 24 00:57:49 web1 openais[2755]: [TOTEM] position [2] member 192.168.12.232:Aug 24 00:57:49 web1 openais[2755]: [TOTEM] previous ring seq 3012 rep 192.168.12.230Aug 24 00:57:49 web1 openais[2755]: [TOTEM] aru 73 high delivered 73 received flag 1Aug 24 00:57:49 web1 openais[2755]: [TOTEM] Did not need to originate any messages in recovery. Aug 24 00:57:49 web1 openais[2755]: [TOTEM] Sending initial ORF tokenAug 24 00:57:49 web1 openais[2755]: [CLM ] CLM CONFIGURATION CHANGEAug 24 00:57:49 web1 openais[2755]: [CLM ] New Configuration:Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.230)Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.231)Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.232)Aug 24 00:57:49 web1 openais[2755]: [CLM ] Members Left:Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.240)Aug 24 00:57:49 web1 kernel: dlm: closing connection to node 1Aug 24 00:57:49 web1 openais[2755]: [CLM ] Members Joined:Aug 24 00:57:49 web1 openais[2755]: [CLM ] CLM CONFIGURATION CHANGEAug 24 00:57:49 web1 openais[2755]: [CLM ] New Configuration:Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.230)Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.231)Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.232)Aug 24 00:57:49 web1 openais[2755]: [CLM ] Members Left:Aug 24 00:57:49 web1 openais[2755]: [CLM ] Members Joined:Aug 24 00:57:49 web1 openais[2755]: [SYNC ] This node is within the primary component and will provide service.Aug 24 00:57:49 web1 openais[2755]: [TOTEM] entering OPERATIONAL state.Aug 24 00:57:49 web1 openais[2755]: [CLM ] got nodejoin message 192.168.12.230Aug 24 00:57:49 web1 openais[2755]: [CLM ] got nodejoin message 192.168.12.231Aug 24 00:57:49 web1 openais[2755]: [CLM ] got nodejoin message 192.168.12.232Aug 24 00:57:49 web1 openais[2755]: [CPG ] got joinlist message from node 3Aug 24 00:57:49 web1 openais[2755]: [CPG ] got joinlist message from node 4Aug 24 00:57:49 web1 openais[2755]: [CPG ] got joinlist message from node 2从输出日志可以看出,当web2节点正常关机后,qdiskd进程立刻检测到web2节点已经关闭,然后dlm锁进程正常关闭了从web2的连接,由于是正常关闭节点web2,所以RHCS认为整个集群系统没有发生异常,仅仅把节点web2从集群中隔离而已。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

REDHAT RHCS 配置笔记
铁钉写于2007-07-08
MSN:gao2000g@
转贴请留以上信息
配置环境:
OS:Redhat AS4U5 (在Windows :Vmware GSX Server 3.1中虚拟的系统)
主机名:AS41, AS42
IP信息: AS41:10.10.10.1 (心跳线) 192.168.1.91 (接局域网)
AS42:10.10.10.2(心跳线) 192.168.1.92 (接局域网) 集群对外提供服务的IP: 192.168.1.95
磁盘信息:两个系统名自将Linux全部安装在: /dev/sda1 (8G)
用于集群共享存储Oracle数据文件: /dev/sdb1 (5G)
******************以下只在Vmware中配置************************
安装好系统后,在Vmware中。

给每个Linux添加两块网卡,添加一个共享磁盘。

共享磁盘会被第一个启动的Linux被锁定了,第二个就起不来了,因此必须做一下设置,用编辑器打开两个虚拟文件夹的“虚拟机名.vmx”文件,最后增加一行:
Disk.locking = false
****************** **********************************************
在vmware Linux 系统中,请一定使用date命令设置Linux系统的时间,怕因为时间问题,引起配置RHCS不成功。

设置日期:date -s 20060925
设置时间:date -s 21:19:50
配置Oracle的RHCS
1. 两台Linux都正常启动,以root身份进行系统,都不要mount oracle共享存储的
分区/dev/sdb1
2. 只需要在AS41上配置RHCS,然后将配置文件复制到AS42上即可。

3. 在AS41里的终端里输入命令:system-config-cluster即可调出配置界面,当然从
主菜单中也能找到启动配置的图标。

4. 初次配置RHCS因为在/etc/cluster下没有cluster.conf会弹出一个对话框,单
击Create New Configuration,如下图所示:
5. 接着会问一个在关锁机制的对话框,选择 DLM即可,如下图:
6. 此时我们看到的主界面如下图所示:
7. 先配置Cluster Nodes,选中左边的“Cluster Nodes” 再单击右边的 Add a Cluster nodes,分别添加AS41,AS42两个节点,两个节点方法完全一样,如下图所示:
8. 先建立好Fence Device,然后再编辑节点的失效设备配置.在配置主界面选择 Fence Device 再点击右下角的“Add a Fence Device”,如下图所示
9. 编辑Fence Devic。

因为我们没有使用专用的Fence Device,可以选择Manual Fencing类型。

名字随便取一个,本例取的是sdb,如下图所示:
10. 编辑完“Fence Device”后,再回过头编辑节点的失效属性。

选择刚建立好的节点:AS41 点击右下角“Manage Fencing For This Node”
11. 弹出编辑节点AS41的新窗口,点击“Add a New Fence Level”,如下图所示
12. 为AS41添加失效级别后,选择窗口中的失效级别,然后点击 “Add a New Fence to this Level ”如下图所示:
13. 点击“Add a New Fence to this Level”,弹出新窗口,选择刚才建立的失效设备sdb作为该失效级别下的失效设备,如下图所示:
14. 编辑完节点AS41的失效级别和失效设备后,如下图所示:
15. 对另一节点AS42也用相同的方法进行配置,AS42的失效级别和失效设备配置好后如下图所示:
16. 建立失效域,点击右边的“Failover Domains”建立一个失效域,如下图所示:
17. 域名随便定义一个,本例取的是AS,如下图所示:
18. 在失效域中,将两个节点都加到同一个域中,如下图所示:
19. 失效域建立好后,选择左边的“Managed Resources” Services,建立一个服务,此例取的服务名是“oraserver”,如下图所示:
20. 然后编辑建立的 oraserver服务,选择失效域为刚才建立的AS域,如下图所示:
21. 在上图的“oraserver服务”中,选择“Create a new resource for this service”先建立集群服务IP如下图所示:
22. 然后再建立自动mount磁盘阵列柜的Oracle数据库文件共享分区 /dev/sdb1,如下图:
23. 建立自动启动和关闭oracle数据库的服务,即指定刚才建立的/etc/rc.d/init.d/oracle服务脚本文件即可,如下图所示:
24. 建立好后的服务如下图所示:
25.RHCS所有都配置好后,主界面如下图所示:
26. 所有的配置都建立完成后,将当前配置信息保存在 /etc/cluster/cluster.conf
27.将当前的AS41系统中的 /etc/cluster/cluster.conf 文件复制到
AS42 Linux
系统中的/etc/cluster/下即可。

28. 然后,分别重启AS41,AS42的 Linux系统,在启动的过程中,会看到有关RHCS
的服务都启动成功:
ccsd 成功
cman 成功
lock_gulmd 警告
fence domain 成功
29. RHCS启动好后,可以在管理器中看到当前是哪个节点在提供服务,本例是AS41在服务(图片是后来补上的,所以和前面的服务名不相同)
30. 当前是AS41在提供服务,可以用 ip addr命令查看,集群服务的ip是否成功,
如下图:
31. 查看当前正在服务的AS41,自动挂载磁盘阵列的共享分区是否成功,如下图:
32.将AS41系统关机后,可以在AS42的RHCS管理器中,看到AS41已死掉,AS42会自动接管集群。

相关文档
最新文档