oracle集群
oracle集群搭建步骤

oracle集群搭建步骤Oracle集群搭建步骤Oracle集群是指利用多台服务器和相关软件技术,将多个独立的Oracle数据库实例连接起来,实现数据的共享和负载均衡,提高系统的可用性和性能。
搭建Oracle集群可以有效提高数据库的稳定性和可靠性,本文将介绍Oracle集群的搭建步骤。
第一步:规划在搭建Oracle集群之前,首先需要进行集群规划。
根据实际需求,确定集群中数据库实例的数量、服务器的数量和配置、存储设备等。
同时,还要考虑到集群的可扩展性和容错性,确保集群能够满足未来的需求。
第二步:准备环境在搭建Oracle集群之前,需要准备好相应的硬件和软件环境。
首先,要确保服务器满足Oracle集群的最低硬件要求,并安装好操作系统。
其次,需要安装Oracle数据库软件,在每台服务器上进行相应的配置和初始化。
第三步:配置网络Oracle集群的正常运行需要良好的网络环境。
在配置网络时,需要为集群配置一个统一的主机名,并确保集群中的每台服务器可以相互通信。
此外,还需要配置监听程序和服务名称,以便实现客户端与集群的连接。
第四步:创建共享存储Oracle集群需要共享存储来实现数据的共享和负载均衡。
可以使用共享磁盘阵列(SAN)或网络附加存储(NAS)来实现共享存储。
在创建共享存储时,需要进行相应的配置和初始化,并确保集群中的每台服务器都可以访问共享存储。
第五步:安装集群软件在搭建Oracle集群之前,需要安装相应的集群软件。
Oracle提供了Oracle Clusterware和Oracle Real Application Clusters (RAC)软件,用于实现集群的管理和数据库实例的共享。
安装集群软件时,需要进行相应的配置和初始化。
第六步:创建集群安装完成集群软件后,需要创建集群。
在创建集群时,需要配置集群的名称、节点信息、资源组等,并确保集群的正常运行。
此外,还需要配置集群的监控和故障转移,以便实现集群的高可用性和容错性。
oracle数据库集群搭建步骤

oracle数据库集群搭建步骤
Oracle数据库集群搭建步骤和方法包括:1.安装Oracle Grid Infrastructure;2.安装Oracle Database;3.创建Oracle Database实例;4.配置Oracle Database实例;5.创建Oracle Database 集群;6.配置Oracle Database集群;7.测试Oracle Database集群。
搭建步骤:
1、安装操作系统并升级到满⾜Oracle安装要求的版本。
创建安装所需要的组、⾜户以及软件的家⾜录。
2、设置GNS域名如果您打算部署GNS,并且完成⾜络地址在DNS和服务器上的配置。
设置所要求的存储。
将所有安装⾜件拷贝到⾜个节点上。
3、安装Oracle Grid 集群基础架构, 包括Oracle Clusterware和Oracle ASM (system and storage administration):为集群安装Oracle Grid?基础架构软件。
在安装过程中,Fixup脚本进⾜操作系统参数、SSH和⾜户环境变量等参数的附加调整。
升级Oracle Clusterware和Oracle ASM 到最新补丁。
4.安装Oracle RAC (databaseadministration)打补丁到最新版本。
完成安装后的调试。
Oracle RAC 集群安装与配置

四、安装过程(Clusterware \Oracle 10g)
1. 安装前的检查 2. 安装Oracle Clusterware 3. 安装Oracle 数据库
1、安装前的检查
•在节点1和2:检查必需的软件包 rpm -q binutils rpm -q compat-db compat-gcc-32 compat-gcc-32-c++ rpm -q compat-libstdc++-33 compat-libgcc-296 rpm -q control-center rpm -q cpp gcc gcc-c++ glibc glibc-common rpm -q glibc-devel glibc-headers glibc-kernheaders rpm -q gnome-libs libaio libstdc++ libstdc++-devel rpm -q make openmotif openmotif21 pdksh rpm -q setarch sysstat xscreensaver
节点2:
en0: 取消DHCP设置 IP:143.168.2.103 网络掩码:255.255.255.0 en1: 取消DHCP设置 IP:10.2.2.103 网络掩码:255.255.255.0 en2: 取消DHCP设置 IP:10.2.1.103 网络掩码:255.255.255.0
•不设置防火墙 •禁用Enable SELinux
• Oracle用户环境变量设置:
– # vi /u01/app/oracle/.bash_profile
• Oracle用户shell限制 – #vi /etc/security/limits.conf
oracle集群方案

Oracle集群方案1. 什么是Oracle集群?Oracle集群是一种高可用性和可扩展性的数据库解决方案,它通过将多个服务器连接在一起,共享存储和负载均衡来提高数据库系统的性能和可用性。
Oracle集群可以提供故障转移和自动切换功能,确保数据库在单个节点故障时能够继续正常运行。
2. Oracle集群的优势2.1 高可用性Oracle集群通过使用共享存储和故障转移技术来提供高可用性。
当一个节点故障时,集群中的其他节点会自动接管故障节点的工作,确保数据库系统的连续可用性。
这种自动故障转移可以显著降低系统停机时间。
2.2 性能扩展通过将工作负载分布在多个节点上,Oracle集群可以实现负载均衡,提高数据库系统的整体性能。
集群中的每个节点都可以处理部分请求,并且可以动态调整节点之间的工作负载,以保持系统的平衡和高效。
2.3 简化管理Oracle集群提供了集中管理的功能,管理员可以通过集群管理工具来管理和监控整个集群。
集群管理工具可以自动检测节点故障并采取相应措施,简化了管理操作并提高了系统的稳定性和可靠性。
3. Oracle集群的实现方式3.1 RAC(Real Application Clusters)RAC是Oracle集群的一种实现方式,它使用共享存储来存储数据库的数据文件和日志文件,并使用集群软件来管理和协调多个节点的工作。
RAC可以在多个节点上同时执行数据库操作,提供了高可用性和性能扩展的功能。
在RAC中,每个节点都可以独立地执行数据库操作,并且可以通过高速互连网络进行通信和数据同步。
节点之间可以共享数据文件和日志文件,这样就可以实现数据的共享和一致性。
当一个节点发生故障时,其他节点会接管故障节点的工作,以确保数据库的连续可用性。
3.2 Data GuardData Guard是Oracle集群的另一种实现方式,它使用物理复制或逻辑复制的方式在不同的节点上创建备用数据库。
主数据库和备用数据库之间通过网络进行数据同步,备用数据库可以在主数据库发生故障时接管其工作。
oracle集群创建实例

oracle集群创建实例如何在Oracle集群中创建实例在Oracle数据库中,实例是指一个特定的数据库运行环境。
Oracle集群是由多台服务器组成的集合,用于提供高可用性、可伸缩性和容错性。
为了利用集群的优势,我们可以在Oracle集群中创建多个实例来分担负载,并提供故障恢复和负载平衡的能力。
本文将详细介绍如何在Oracle集群中创建实例的步骤。
在开始创建实例之前,我们需要先完成以下准备工作:1. 安装和配置Oracle软件在每台集群节点上安装并配置Oracle软件。
确保所有节点上的Oracle 软件版本一致,并按照Oracle的安装文档进行配置。
这包括设置环境变量、创建监听器等。
2. 配置共享存储Oracle集群需要一个共享存储来存储数据库文件,如数据文件、控制文件和日志文件。
这个共享存储可以是网络文件系统(NFS)、共享磁盘或存储区域网络(SAN)。
确保在所有节点上都可以访问共享存储,并为其分配足够的空间。
3. 创建集群数据库实例在开始创建实例之前,我们需要先创建一个集群数据库。
集群数据库是指在Oracle集群中共享的数据库,可以由多个实例同时访问和管理。
通过创建集群数据库,我们可以在多个节点上运行一个数据库实例,实现负载均衡和高可用性。
下面是创建集群数据库的步骤:步骤1:连接到其中一个集群节点上的Oracle实例。
使用管理员权限的账户连接到Oracle实例,以执行创建集群数据库的操作。
步骤2:创建启动脚本和参数文件。
在主节点上创建一个启动脚本和参数文件,以便通过脚本启动其他节点上的实例。
参数文件应包含所有节点上相同的参数设置。
步骤3:创建一个数据库控制文件的备份集。
创建数据库控制文件的备份集,并将其存储在所有节点都可以访问的共享存储中。
步骤4:创建数据库在共享存储上的初始数据文件。
在共享存储上创建数据库的初始数据文件,并设置适当的权限以供所有节点访问。
步骤5:设置监听器。
配置所有节点上的监听器,以便能够接受来自其他节点的连接请求。
oracle rac通俗解释

oracle rac通俗解释
Oracle RAC(Real Application Clusters)是一种Oracle数据库
的集群技术,它允许多台服务器共同处理同一个数据库。
通俗地说,Oracle RAC就像是一台巨大的数据库服务器,由多台
物理服务器群组成,每台服务器都能同时处理和访问同一个数据库。
在传统的数据库架构中,通常只有一台服务器负责处理数据库操作,其他服务器只能作为备份或备用。
而Oracle RAC则改
变了这种架构,它将整个数据库分成多个部分,分布在不同的服务器上。
每台服务器都有自己的内存和处理资源,可以同时处理来自应用程序的查询和事务。
Oracle RAC的好处是提高了数据库的可用性和性能。
由于多
台服务器共同处理数据库操作,一台服务器出现故障时,其他服务器可以接替它继续处理请求,不会导致整个系统停止工作。
同时,由于数据库操作可以分散到多台服务器上进行,每台服务器的负载也减轻了,提高了整个系统的性能和响应速度。
总之,Oracle RAC是一种集群技术,能够将多台服务器组成
一个大型的数据库服务器,提高数据库的可用性和性能。
这种技术的应用让数据库能够更加稳定地运行,并能够处理更多的并发请求。
ORACLE集群概念与原理

ORACLE集群概念与原理第⼀章集群的概念和发展1集群的概念1.1集群相关术语定义1.1.1服务硬件服务硬件是指提供计算服务的硬件,⽐如PC机、PC服务器。
1.1.2服务实体服务实体通常指服务软体和服务硬体。
1.1.3节点(node)运⾏Heartbeat进程的⼀个独⽴主机称为节点,节点是HA的核⼼组成部分,每个节点上运⾏着操作系统和Heartbeat软件服务。
在Heartbeat集群中,节点有主次之分,分别称为主节点和备⽤/备份节点,每个节点拥有⼀个唯⼀的主机名,并且拥有属于⾃⼰的⼀组资源,例如磁盘、⽂件系统、⽹络地址和应⽤服务等。
主节点上⼀般运⾏着⼀个或者多个应⽤服务,⽽备⽤节点⼀般处于监控状态。
1.1.4资源(resource)资源是⼀个节点可以控制的实体,当节点发⽣故障时,这些资源能够被其他节点接管。
在Heartbeat中,可以当做资源的实体如下:(⼀)磁盘分区、⽂件系统(⼆)IP地址(三)应⽤程序服务(四)共享存储1.1.5事件(event)事件也就是集群中可能发⽣的事情,例如节点系统故障、⽹络连通故障、⽹卡故障和应⽤程序故障等。
这些事件都会导致节点的资源发⽣转移,HA的测试也是基于这些事件进⾏的。
1.2什么是集群简单的说,集群(cluster)就是⼀组计算机,它们作为⼀个整体向⽤户提供⼀组⽹络资源,这些单个的计算机系统就是集群的节点(node)。
⼀个理想的集群是,⽤户从来不会意识到集群系统底层的节点,在他们看来,集群是⼀个系统,⽽⾮多个计算机系统;并且集群系统的管理员可以随意的增加和删改集群系统的节点。
与单⼀服务实体相⽐较,集群提供了以下两个关键的特性。
(⼀)可扩展性。
集群的性能不限于单⼀的服务实体,新的服务实体可以动态的加⼊到集群,从⽽增强集群的性能。
(⼆)⾼可⽤性。
集群通过服务实体冗余使客户端免于轻易遭遇到“out of service”警告。
当⼀台节点服务器发⽣故障的时候,这台服务器上所运⾏的应⽤程序将在另⼀节点服务器上被⾃动接管。
检查oracle集群状态

1) 检查集群状态:[g rid@r ac02~]$ c rsctl chec k clu sterCRS-4537: Clu sterReady Serv icesis on lineCRS-4529: Clu sterSynch roniz ation Serv icesis on lineCRS-4533: Eve nt Ma nager is o nline2)、所有 Or acle实例—(数据库状态):[grid@rac02 ~]$ srvc tl st atusdatab ase -d rac dbInsta nce r acdb1 is r unnin g onnoderac01In stanc e rac db2 i s run ningon no de ra c023)、检查单个实例状态:[grid@rac02 ~]$ srvc tl st atusinsta nce -d rac db -i racd b1 Insta nce r acdb1 is r unnin g onnoderac014)、节点应用程序状态:[gr id@ra c02 ~]$ sr vctlstatu s nod eappsVI P rac01-vi p isenabl edVIP r ac01-vip i s run ningon no de: r ac01VIP rac02-vip is e nable dV IP ra c02-v ip is runn ing o n nod e: ra c02Netw ork i s ena bledNet workis ru nning on n ode:rac01Ne twork is r unnin g onnode: rac02G SD is disa bledGSD is n ot ru nning on n ode:rac01GS D isnot r unnin g onnode: rac02O NS is enab ledONSdaemo n isrunni ng on node: rac01ONS d aemon is r unnin g onnode: rac02e ONS i s ena bledeON S dae mon i s run ningon no de: r ac01eON S dae mon i s run ningon no de: r ac025)、列出所有的配置数据库:[g rid@r ac02~]$ s rvctl conf ig da tabas er acdb6)、数据库配置:[g rid@r ac02~]$ s rvctl conf ig da tabas e -dracdb -aData baseuniqu e nam e: ra cdbData basename: racd bO racle home: /u01/app/orac le/pr oduct/11.2.0/db home_1 O racle user: ora cleSpfi le: +RACDB_DATA/racd b/spf ilera cdb.o raDomai n: xz xj.ed Sta rt op tions: ope nS top o ption s: im media teDatab ase r ole:PRIMA RYManag ement poli cy: A UTOMA TICServ er po ols:racdbDa tabas e ins tance s: ra cdb1,racdb2D isk G roups: RAC DB_DA TA,FR AS ervic es:Data baseis en abledDa tabas e isadmin istra tor m anage d7)、ASM状态以及AS M配置:[g rid@r ac02~]$ s rvctl stat us as mA SM is runn ing o n rac01,ra c02[gri d@rac02 ~]$ srv ctl c onfig asm-aASM h ome:/u01/app/11.2.0/gridAS M lis tener: LIS TENERAS M isenabl ed.8)、TN S监听器状态以及配置:[grid@rac02 ~]$srvct l sta tus l isten erListe ner L ISTEN ER is enab ledList enerLISTE NER i s run ningon no de(s): rac01,ra c02[gri d@rac02 ~]$ srv ctl c onfig list ener-aName: LIST ENERNet work: 1, O wner: gridHo me: <CRS h ome>/u01/app/11.2.0/gr id on node(s) r ac02,rac01En d poi nts:TCP:15219)、SC AN状态以及配置:[gr id@ra c02 ~]$ sr vctlstatu s sca nS CAN V IP sc an1 i s ena bledSCA N VIP scan1 isrunni ng on node rac02[grid@rac02 ~]$srvct l con fig s canSCAN name: rac-scan.xzx.cn, N etwor k: 1/192.168.1.0/255.255.255.0/eth0 SC AN VI P nam e: sc an1,IP: /rac-s can.x zxj.e du.cn/192.168.1.5510)、V IP各个节点的状态以及配置:[gr id@ra c02 ~]$ sr vctlstatu s vip -n r ac01VIP rac01-vip is e nable dV IP ra c01-v ip is runn ing o n nod e: ra c01[gri d@rac02 ~]$ srv ctl s tatus vip-n ra c02VIPrac02-vipis en abledVI P rac02-vi p isrunni ng on node: rac02[grid@rac02 ~]$ srvc tl co nfigvip -n rac01VIP e xists.:rac01VIP e xists.: /r ac01-vip/192.168.1.53/255.255.255.0/eth0[g rid@r ac02~]$ s rvctl conf ig vi p -nrac02VI P exi sts.:rac02VI P exi sts.: /rac02-vi p/192.168.1.54/255.255.255.0/e th011)、节点应用程序配置—(VIP、GSD、O NS、监听器)[gri d@rac02 ~]$ srv ctl c onfig node apps-a -g -s -l-l opt ion h as be en de preca ted a nd wi ll be igno red.VIP exis ts.:r ac01VIP exis ts.:/rac01-vip/192.168.1.53/255.255.255.0/et h0VIP e xists.:rac02VIP e xists.: /r ac02-vip/192.168.1.54/255.255.255.0/eth0GS D exi sts.ONS daem on ex ists. Loca l por t 6100, re moteport6200Nam e: LI STENE RN etwor k: 1, Owne r: gr idHome: <CRS home>/u01/a pp/11.2.0/gridon no de(s) rac02,rac01End p oints: TCP:152112)、验证所有集群节点间的时钟同步:[grid@rac02 ~]$cluvf y com p clo cksyn c -ve rboseVe rifyi ng Cl ock S ynchr oniza tionacros s the clus ter n odesChe cking if C luste rware is i nstal led o n all node s...Che ck of Clus terwa re in stall pass edCheck ing i f CTS S Res ource is r unnin g onall n odes...Check: CTS S Res ource runn ing o n all node sN ode N ame S tatus------------------------------------------------------------rac02 pa ssedRes ult:CTSSresou rce c heckpasse dQ ueryi ng CT SS fo r tim e off set o n all node s...Res ult:Query of C TSS f or ti me of fsetpasse dC heckCTSSstate star ted...C heck: CTSS stat eN ode N ame S tate------------------------------------ ------------------------rac02 Act iveCTSS is i n Act ive s tate. Proc eedin g wit h che ck of cloc k tim e off setson al l nod es...Re feren ce Ti me Of fsetLimit: 1000.0 m secsChe ck: R efere nce T ime O ffsetNo de Na me Ti me Of fsetStatu s------------ ------------------------ ------------------------r ac020.0 p assedTi me of fsetis wi thinthe s pecif ied l imits on t he fo llowi ng se t ofnodes:"[rac02]"Resu lt: C heckof cl ock t ime o ffset s pas sedOrac le Cl uster Time Sync hroni zatio n Ser vices chec k pas sedVeri ficat ion o f Clo ck Sy nchro nizat ion a cross theclust er no des w as su ccess ful.13)、集群中所有正在运行的实例—(SQL):SELEC T ins t_id, ins tance_numb er in st_no , in stanc e_nam e ins t_nam e , p arall el ,statu s ,datab ase_s tatus db_s tatus , ac tive_state stat e , h ost_n ame h ost F ROM g v$ins tanceORDE R BYinst_id;14)、所有数据库文件及它们所在的 AS M 磁盘组— (S QL):15)、ASM 磁盘卷:16)、启动和停止集群:以下操作需用roo t用户执行。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
数据库双机可以有两种不同的方式:双机热备份、双机集群。
双机热备份方式的集群完全通过操作系统的cluster软件来实现,在同一个时刻,只有一台机器对数据库作操作,当这台机器发生故障以后,由操作系统cluster将所有资源切换到两外一个节点,防止单节点数据库故障。
双机集群方式(RAC),在10g以后,通过ORACLE自身提供的CRS来实现集群的功能。
在同一个时刻,所有的机器都对数据库作操作,当某台机器发生故障后,其他机器接管该机器的工作。
这种方式不但能够防止单节点数据库故障,还能够实现负载均衡。
因为两个机器对同一个数据库操作,因此数据库文件一般无法使用传统的文件系统方式存储。
下表列出了两种方式的区别:
注一:对于rac方式,在10G以下的版本必须要操作系统cluster的支持+oracle rac选件才能够实现,在10G以后,oracle提供了自身的cluster软件——crs,因此可以在没有操作系统cluster的情况实现RAC方式,但对于文件的存储方式有所限制,下表列出了在rac方式下可以选择的存储方式
数据库双机热备方案的原理及实现
以下简单说明了双机热备的原理及实现。
⏹
双机热备系统又称为Cold Failover,它是oracle 数据库高可用方式的一种。
主要工作方式为主机节点运行,备用节点处于等待状态,当主机节点发生失败的时候,数据库以及虚拟IP 自动漂移到备用节点,完成用户应用透明切换。
切换操作基于操作系统Cluster 控制软件,操作系统负责监控系统的运行状况。
操作系统实现数据库的关闭、切换和启动。
⏹ 方案评价
双机热备系统是单实例数据库系统,它的工作方式是一种Shared Nothing 方式,也就是同一时间段,只有一台节点对共享盘阵有操作权。
在发生节点失败时,完成切换。
应用切换对前端用户透明,主机节点失败后用户自动转接入预先定以的备用节点。
此种方式概念以及平台搭建相对简单,易于管理。
但是其主机工作,备机等待的工作方式,造成了此种工作方式对系统资源的一定浪费。
同时该方式不支持用户操作的连续性。
⏹ 方案具体实现
双机热备系统几乎支持现阶段所用供应商。
例如:Microsoft , Sun , HP , IBM , Compaq , Intel , Linux ….。
完成此种方式对硬件,操作系统及各厂家
Server A 备节
点
HA 软件有一定要求。
硬件要求:至少两台服务器、一个共享盘阵,每台服务器需要两块网卡。
一块用于两台主机之间的连接,两台主机通过此连接定期向对方发送检测信号,判断对方工作状态(如下图红线标注)。
另外一块网卡用于和外网的连接。
HA 软件方面要求:
必须操作系统HA 软件支持,根据操作系统平台不同如:Microsoft Cluster Server(MSCS) 、HP MC/ServiceGuard 、AIX HACMP 、SUN Sun Cluster
磁盘阵列要求:
必须和各节点保持物理连接。
实现方式:
Windows 平台:在两台节点上分别安装数据库软件,在磁盘阵列上创建数据库。
主节点对磁盘阵列有控制权,同时虚拟IP 工作在主节点上。
用户通过主节点访问磁盘阵列上的数据库。
当主节点发生失败时,MSCS 服务将磁盘阵列的控制权以及虚拟IP 漂移到备用节点上,并重新启动数据库,用户在等待很短的时间后,可以重新访问数据库。
UNIX 平台:在两台节点上分别安装数据库软件,在磁盘阵列上创建数据库。
磁盘阵列MOUNT 在主节点上,虚拟IP 也工作在主节点。
用户通过主节点访问磁盘阵列上的数据库。
当主节点发生失败时。
HA 软件将磁盘阵列从主节点上UMOUNT 下来,并将磁盘阵列MOUNT 到备用节点上,同时完成虚拟IP 的漂移。
并重新启动数据库,用户在等待很短的时间后,可以重新访问数据库
数据库群集方案的原理及实现
以下简单说明集群方式的原理及实现:
主机节
⏹方案原理
Server A 备节点
Hot FailOver。
Real Application Cluster(9i版本以前称作Oracle Parallel Server,OPS)用来在群机环境下实现多机共享数据库,以保证应用的高可用性。
同时可以自动实现并行处理及均分负载,还能实现数据库在故障时的容错和无断点恢复。
Real Application Cluster为大多数高要求数据库环境提供了极高的性能和完美的纠错功能。
Real Application Cluster允许群集系统或大型并行系统中的多个节点共享同一物理数据库。
Real Application Cluster可以自动进行负载平衡、故障修复和规划停机时间,以支持高可用性应用程序。
它还显著提高了大型数据仓库和决策支持系统的性能。
与并行查询选件结合,它还提供了节点间并行性和节点的并行性,以得到更高的性能。
⏹方案评价
Oracle Real Application Clusters是多实例数据库系统,它的工作方式是Shared Disk方式。
由多个节点上的多个实例(每台节点一个)同时操作数据库,也就是同一时间段,群集内的所有节点对共享盘阵都有操作权。
在一台节点发生节
点失败时,完成切换。
应用切换对前端用户透明。
Oracle Real Application Clusters 可以使所有的应用程序不经修改便能获得集群数据库的高可用性、可伸缩性和高性能。
应用程序可以将Oracle Real Application Clusters当成一个单一的系统使用,而不必再进行修改或分区,以获取类似集群数据库的可伸缩性。
这允许用户随着应用及需求的不断增长,横向地伸缩数据库的级数,而不必对应用程序进行修改。
而且,Oracle Real Application Clusters是自适应的,能够根据数据库负载情况的变化进行自我调节——动态地在集群服务器上移动数据库资源,以获取最佳性能。
方案具体实现
Oracle Real Application Cluster系统几乎支持现阶段所用供应商。
例如:Microsoft , Sun , HP , IBM , Compaq , Intel , Linux….。
在10G以前的版本完成此种方式对硬件,操作系统及各厂家HA软件有一定要求。
在10G以后的版本oracle 公司自身提供了cluster软件——crs,可以在没有操作系统cluster软件支持的情况下实现RAC,但在文件存储上有一定的限制。
如果不使用操作系统的cluster 软件,oracle无法使用传统的裸设备来存储数据库文件。
硬件要求:
至少两台服务器、一个共享盘阵,每台服务器在不考虑冗余的情况下最少需要两块高速网卡。
一块用于各节点之间的高速通道连接,节点通过此连接发送内部通讯信息。
另外一块网卡用于和外网的连接。
软件要求:
操作系统:RAC支持各种主流操作系统。
Windows、IBM AIX、HP HP-UX、Sun Solaris、Tru64 UNIX 、linux
实现方式:
操作系统底层CLUSTER搭建好后(可选),首先安装配置oracle crs软件。
然后在一台节点上安装ORACLE软件,安装程序在这一节点安装完成后会自动将软件拷贝到群集中的所有节点上,然后在共享磁盘阵列上创建数据库。
安装完成后各节点上的实例都可以访问磁盘阵列上的数据库。
实现方式:
操作系统底层CLUSTER搭建好后(可选),首先安装配置oracle crs软件。
然后在一台节点上安装ORACLE软件,安装程序在这一节点安装完成后会自动将软件拷贝到群集中的所有节点上,然后在共享磁盘阵列上创建数据库。
安装完成后各节点上的实例都可以访问磁盘阵列上的数据库。