Linux集群种类大全

Linux集群种类大全
Linux集群种类大全

Linux集群种类大全

计算Linux 中集群项目的数量就象计算硅谷中创业公司的数量一样。不象Windows NT 已经受其自身的封闭环境阻碍,Linux 有大量的集群系统可供选择,适合于不同的用途和需要。但确定应该使用哪一个集群的工作却没有因此变得简单。

问题的部分原因在于术语集群用于不同场合。IT 经理可能关心如何使服务器运行时间更长,或使应用程序运行得更快,而数学家可能更关心在服务器上进行大规模数值计算。两者都需要群集,但是各自需要不同特性的群集。

本文调查了不同形式的集群以及许多实现中的一部分,这些实现可以买到,也可以免费软件形式获得。尽管列出的所有解决方案并不都是开放源码,但是大多数软件都遵循分发Linux 源码的公共惯例,特别是由于那些实现集群的人还常常希望调整系统性能,以满足需要。

硬件

集群总是涉及到机器之间的硬件连接。在现今大多数情况下,这只是指“快速以太网”网卡和集线器。但在尖端科学领域中,有许多专为集群设计的网络接口卡。

它们包括Myricom 的Myrinet、Giganet 的cLAN 和IEEE 1596 标准可伸缩一致接口(SCI)。那些卡的功能不但在群集的节点之间提供高带宽,而且还减少延迟(发送消息所用的时间)。对于在节点间交换状态信息以使其操作保持同步情况,那些延迟是至关重要的。

Myricom

Myricom 提供网卡和交换机,其单向互连速度最高可达到1.28 Gbps。网卡有两种形式,铜线型和光纤型。铜线型LAN 可以在10 英尺距离内以全速进行通信,而在长达60 英尺距离内以半速进行操作。光纤型Myrinet 可以在6.25 英里长的单模光纤或者340 英尺长的多模光纤上全速运行。Myrinet 只提供直接点到点、基于集线器或基于交换机的网络配置,但在可以连接到一起的交换光纤数量方面没有限制。添加交换光纤只会增加节点间的延迟。两个直接连接的节点之间的平均延迟是5 到18 微秒,比以太网快得多。

集群类型

最常见的三种群集类型包括高性能科学群集、负载均衡群集和高可用性群集。

科学群集

通常,第一种涉及为群集开发并行编程应用程序,以解决复杂的科学问题。这是并行计算的基础,尽管它不使用专门的并行超级计算机,这种超级计算机内部由十至上万个独立处理器组成。但它却使用商业系统,如通过高速连接来链接的一组单处理器或双处理器PC,并且在公共消息传递层上进行通信以运行并行应用程序。因此,您会常常听说又有一种便宜的Linux 超级计算机问世了。但它实际是一个计算机群集,其处理能力与真的超级计算机相等,通常一套象样的群集配置开销要超过$100,000。这对一般人来说似乎是太贵了,但与价值上百万美元的专用超级计算机相比还算是便宜的。

负载均衡群集

负载均衡群集为企业需求提供了更实用的系统。如名称所暗示的,该系统使负载可以在计算机群集中尽可能平均地分摊处理。该负载可能是需要均衡的应用程序处理负载或网络流量负载。这样的系统非常适合于运行同一组应用程序的大量用户。每个节点都可以处理一部分负载,并且可以在节点之间动态分配负载,以实现平衡。对于网络流量也是如此。通常,网络服务器应用程序接受了太多入网流量,以致无法迅速处理,这就需要将流量发送给在其它节点上运行的网络服务器应用。还可以根据每个节点上不同的可用资源或网络的特殊环境来进行优化。

高可用性群集

高可用性群集的出现是为了使群集的整体服务尽可能可用,以便考虑计算硬件和软件的易错性。如果高可用性群集中的主节点发生了故障,那么这段时间内将由次节点代替它。次节点通常是主节点的镜像,所以当它代替主节点时,它可以完全接管其身份,并且因此使系统环境对于用户是一致的。

在群集的这三种基本类型之间,经常会发生混合与交杂。于是,可以发现高可用性群集也可以在其节点之间均衡用户负载,同时仍试图维持高可用性程度。同样,可以从要编入应用程序的群集中找到一个并行群集,它可以在节点之间执行负载均衡。尽管集群系统本身独立于它在使用的软件或硬件,但要有效运行系统时,硬件连接将起关键作用。

Giganet

Giganet 是用于Linux 平台的虚拟接口(VI) 体系结构卡的第一家供应商,提供cLAN 卡和交换机。VI 体系结构是独立于平台的软件和硬件系统,它由Intel 开发,用于创建群集。它使用自己的网络通信协议在服务器之间直接交换数据,而不是使用IP,并且它并不打算成为WAN 可路由的系统。现在,VI 的未来取决于正在进行的“系统I/O 组”的工作,这个小组本是Intel 领导的“下一代I/O”小组与IBM 和Compaq 领导的“未来I/O 小组”的合并。Giganet 产品当前可以在节点之间提供1 Gbps 单向通信,最小延迟为7 微秒。IEEE SCI

IEEE 标准SCI 的延迟更少(低于2.5 微秒),并且其单向速度可达到400 MB/秒(3.2 Gbps)。SCI 是基于环拓扑的网络系统,不像以太网是星形拓扑。这将使在较大规模的节点之间通信速度更快。更有用的是环面拓扑网络,它在节点之间有许多环形结构。两维环面可以用n 乘m 的网格表示,其中在每一行和每一列都有一个环形网络。三维环面也类似,可以用三维立体节点网格表示,每一层上有一个环形网络。密集超级计算并行系统使用环面拓扑网络,为成百上千个节点之间的通信提供相对最快的路径。

大多数操作系统的限制因素不是操作系统或网络接口,而是服务器的内部PCI 总线系统。几乎所有台式PC 通常有基本32-位,33-MHz PCI,并且大多数低端服务器只提供133 MB/秒(1 Gbps),这限制了那些网卡的能力。一些昂贵的高端服务器,如Compaq Proliant 6500 和IBM Netfinity 7000 系列,都有64-位,66-MHz 网卡,它们能够以四倍速度运行。不幸地是,矛盾是更多公司使用低端的系统,因此大多数供应商最终生产和销售更多低端PCI 网卡。也有专门的64-位,66-MHz PCI 网卡,但价格要贵许多。例如,Intel 提供了这种类型的“快速以太网”网卡,价格约$400 到$500,几乎是普通PCI 版本价格的5 倍。

科学群集

某些并行群集系统可以达到如此高的带宽和低延迟,其原因是它们通常绕过使用网络协议,如TCP/IP。虽然网际协议对于广域网很重要,但它包含了太多的开销,而这些开销在节点相互已知的封闭网络群集中是不必要的。其实,那些系统中有一部分可以在节点之间使用直接内存访问(DMA),它类似于图形卡和其它外围设备在一台机器中的工作方式。因此横跨群集,可以通过任何节点上的任何处理器直接访问一种形式的分布式共享内存。它们也可以使用低开销的消息传递系统,在节点之间进行通信。

消息传递接口(MPI) 是并行群集系统间消息传递层的最常见实现。MPI 存在几种衍生版本,但在所有情况下,它为开发者访问并行应用程序提供了一个公共API,这样开发者就不必手工解决如何在群集的节点之间分发代码段。其中一个,Beowulf 系统首先将MPI 用作公共编程接口。

很难决定使用哪种高性能集群包。许多都提供类似服务,但计算的具体要求才是决定性因素。很多情况下,在那些系统中的研究工作只是解决需求的一半,而且使用那些软件需要集群包开发者的特殊帮助和合作。Beowulf

当谈到Linux 集群时,许多人的第一反映是Beowulf。那是最著名的Linux 科学软件集群系统。没有一个包叫做Beowulf。实际上,它是一个术语,适用于在Linux 内核上运行的一组公共软件工具。其中包括流行的软件消息传递API,如“消息传送接口”(MPI) 或“并行虚拟机”(PVM),对Linux 内核的修改,以允许结合几个以太网接口、高性能网络驱动器,对虚拟内存管理器的更改,以及分布式进程间通信(DIPC) 服务。公共全局进程标识空间允许使用DIPC 机制从任何节点访问任何进程。Beowulf 还在节点间支持一系列硬件连通性选件。

Beowulf 可能是考虑Linux 时注意到的第一个高性能集群系统,这只是因为它的广泛使用和支持。关于这个主题,有许多文档和书籍。Beowulf 与以下一些科学集群系统之间的差异可以是实际的,或者只是在产品名称中有差异。例如,尽管名称不同,Alta Technologies 的AltaCluster 就是一个Beowulf 系统。某些供应商,如ParTec AG,一家德国公司,提供了Beowulf 模型的衍生版本,以包括其它管理接口和通信协议。Giganet cLAN

Giganet 提供了一种定制的基于硬件的解决方案,它使用非IP 协议在一个科学群集的节点间进行通信。如前所述,“虚拟接口”协议通过除去不少协议的开销,如IP,以支持服务器间更快的通信。另外,硬件系统可按千兆比特速度运行,并且延迟很短,使它非常适合构建最多达256 个节点的科学群集。该供应商支持MPI,这样许多并行应用程序就可以在类似的系统(如Beowulf)上运行。

它也有Beowulf 的缺点,即不能用作网络负载共享系统,除非想要编写应用程序来监控和分发在服务器间传送的网络包。

Legion

Legion 试图构建一个真正的多计算机系统。这是一个群集,其中每个节点都是一个独立系统,但在用户看来,整个系统只是一台计算机。Legion 设计成支持一台世界范围的计算机,由上百万个主机以及数以万亿计的软件对象组成。在Legion 中,用户可以创立他们自己的合作小组。

Legion 提供了高性能并行、负载均衡、分布式数据管理和容错性。

Legion 提供了高性能并行、负载均衡、分布式数据管理和容错性。它通过其容错管理和成员节点间的动态重新配置来支持高可用性。它还有一个可扩充核心,该核心可以在出现新的改进和进展时动态替换或升级。系统并不是只接受单一控制,而是可以由任意数量的组织管理,而每个组织都支持整体的自治部分。Legion API 通过其内置的并行性提供了高性能计算。

Legion 需要使用特别编写的软件,以使它可以使用其API 库。它位于用户计算机操作系统之上,协调本地资源和分布式资源。它自动处理资源调度和安全性,还管理上下文空间以描述和访问整个系统中上亿种可能之外的对象。然而,在每个节点上运行时,不需要使用系统管理员特权,并且可以使用无特权的用户帐号进行工作。这将增加加入Legion 的节点和用户的灵活性。

Cplant

Sandia National Lab 中的Computational Plant 是一个大规模整体并行群集,用于实现TeraFLOP(万亿次浮点运算)计算并构建在商业组件上。整个系统由“可伸缩单元”组成,这些“可伸缩单元”可以划分成适合不同目

的(计算、磁盘I/O、网络I/O、服务管理)。群集中的每个节点都是一个Linux 系统,带有专门开发的、提供分区服务的内核级模块。每个分区的功能可以通过装入和卸载内核级模块来修改。

项目分三个阶段完成,开始阶段是原型,有128 个基于433-MHz DEC Alpha 21164 的系统,其中每个都有192 MB RAM 和2 GB 驱动器,相互之间用Myrinet 网卡和8-端口的SAN 交换机连接。第1 阶段将它扩充为400 个基于21164 的工作站,这些工作站的运行速度为500 MHz,有192 MB RAM,没有存储器,用16-端口的SAN 交换机以超立方体结构连接起来,并且运行Red Hat 5.1。当前的第2 阶段有592 台基于DEC 21264 的机器,它们的运行速度为500 MHz,有256 MB RAM,没有驱动器。每个节点都使用64-位,33-MHz PCI Myrinet 网卡,并且仍使用16-端口交换机以超立方体结构连接。

在Cplant 上运行的应用程序包括解决稀疏线性系统、流体力学和结构力学中计算系统的优化、分子力学的模拟、线性结构力学的有限元分析,以及并行应用程序的动态负载均衡库。

JESSICA 2

香港大学的系统研究小组有一个基于Java 的群集,叫做支持Java 的单系统映像计算体系结构(JESSICA),它作为一个中间件层以完成单系统映像的幻想。该层是每个使用分布式共享内存(DSM) 系统进行通信的节点上运行的所有线程的一个全局线程空间。该项目使用ThreadMark DSM,但最终将用他们自己创建的JiaJia Using Migrating-home Protocol (JUMP)。他们使用定制的基于Java 的ClusterProbe 软件来管理群集的50 个节点。

PARIS

法国的IRISA 研究所的“大规模数字模拟应用程序的编程并行和分布式系统”(PARIS) 项目提供了几种用于创建Linux 服务器群集的工具。该项目由三部分组成:群集的资源管理软件、并行编程语言的运行时环境,以及分布式数字模拟的软件工具。

资源管理软件包括用于共享内存、磁盘和处理器资源的Globelins 分布式系统,及其Dupleix 和Mome 分布式共享内存系统。

负载均衡群集

负载均衡群集在多节点之间分发网络或计算处理负载。在这种情况下,区别在于缺少跨节点运行的单并行程序。大多数情况下,那种群集中的每个节点都是运行单独软件的独立系统。但是,不管是在节点之间进行直接通信,还是通过中央负载均衡服务器来控制每个节点的负载,在节点之间都有一种公共关系。通常,使用特定的算法来分发该负载。

网络流量负载均衡是一个过程,它检查到某个群集的入网流量,然后将流量分发到各个节点以进行适当处理。它最适合大型网络应用程序,如Web 或FTP 服务器。负载均衡网络应用服务要求群集软件检查每个节点的当前负载,并确定哪些节点可以接受新的作业。这最适合运行如数据分析等串行和批处理作业。那些系统还可以配置成关注某特定节点的硬件或操作系统功能:这样,群集中的节点就没有必要是一致的。

Linux 虚拟服务器

“Linux 虚拟服务器”项目已经实现了许多内核补丁,它们为入网TCP/IP 流量创建了负载均衡系统。LVS 软件检查入网流量,然后根据负载均衡算法,将流量重定向到一组充当群集的服务器。这允许网络应用程序,如Web 服务器,在节点群集上运行以支持大量用户。

LVS 支持作为负载均衡服务器直接连接到同一个LAN 的群集节点,但它还能够以通道传送IP 包的方式连接到远程服务器。后一种方法包括压缩IP 包中的均衡请求,这些IP 信息包从负载均衡服务器直接发送到远程群集节点。尽管LVS 可以远程支持网站的负载均衡,但它使用的负载均衡算法现在对于虚拟群集中的广域Web 服务器仍无效。因此,如果Web 服务器都在同一个LAN 中,LVS 最好当作负载均衡服务器使用。

负载均衡系统的几种硬件实现比在通用操作系统,如Linux,上运行得更快。它们包括来自Alteon 和Foundry 的硬件,其硬件逻辑和最少操作系统可以在硬件中执行流量管理,并且速度比纯软件快。它们的价格也很高,通常都在$10,000 以上。如果需要简单和便宜的解决方案,一个有很多内存(256 MB) 的中等Linux 系统将会是一个好的负载均衡系统。

TurboLinux TurboCluster 和enFuzion

TurboLinux 有一个产品叫TurboCluster,它最初以“Linux 虚拟服务器”项目开发的内核补丁为基础。因此,它可以得到大部分优点,但它的缺点也与原来的项目一样。TurboLinux 为此还开发了一些工具,用于监控增加产品实用性的群集行为。一家主要供应商的商业支持也使它对于大型网站更具吸引力。

EnFuzion 支持在节点之间实现自动负载均衡和资源共享,而且可以自动重新安排失败的作业。

EnFuzion 是TurboLinux 即将推出的科学群集产品,它并不基于Beowulf。但是,它可以支持上百个节点以及许多不同的非Linux 平台,包括Solaris、Windows NT、HP-UX、IBM AIX、SGI Irix 和Tru64。EnFuzion 非常有趣,因为它运行所有现有软件,并且不需要为环境编写定制的并行应用程序。它支持在节点间实现自动负载均衡和资源共享,而且可以自动重新安排失败的作业。

Platform Computing 的LSF 批处理

Platform Computing 是群集计算领域的老手,现在提供了Linux 平台上的“负载均衡设施(LSF) 批处理”软件。LSF 批处理允许中央控制器安排作业在群集中任意数量的节点上运行。在概念上,它类似于TurboLinux enFuzion 软件,并且支持在节点上运行任何类型的应用程序。

这种方法对于群集大小是非常灵活的,因为可以明确选择节点的数量,甚至是运行应用程序的节点。于是,可以将64 个节点的群集分成更小的逻辑群集,每个逻辑群集都运行自己的批处理应用程序。而且,如果应用程序或节点失败,它可以在其它服务器上重新安排作业。

Platform 的产品在主要Unix 系统和Windows NT 上运行。目前,只有它们的LSF 批处理产品已经移植到Linux 上。最终,LSF Suite 组件的其余部分也将紧随其后移植到Linux 上。

Resonate Dispatch 系列

Resonate 有一种基于软件的负载均衡方法,类似于Linux 虚拟服务器。但是,它支持更多特性,以及一些更好的负载均衡算法。例如,使用Resonate,可以在每个群集节点装入一个代理,以确定该节点当前的系统负载。然后,负载均衡服务器检查每个节点的代理,以确定哪个节点的负载最少,并且将新的流量发送给它。另外,Resonate 还可以使用它的Global Dispatch 产品更有效地支持地区性分布式服务器。

Resonate 已经在Red Hat Linux 上彻底测试了该软件,相信它也可以在其它发行版上运行。Resonate 的软件还可以在其它各种平台上运行,包括Solaris、AIX、Windows NT,并且它还可以在混合环境中进行负载均衡。

MOSIX

MOSIX 使用Linux 内核新版本来实现进程负载均衡集群系统。该群集中,任何服务器或工作站可以按指定加入或离开,即添加到群集的总处理能力,或从中除去。根据其文档,MOSIX 使用自适应进程负载均衡和内存引导算法使整体性能最大化。应用程序进程可以在节点之间抢先迁移,以利用最好的资源,这类似于对称多处理器系统可以在各个处理器之间切换应用程序。

MOSIX 在应用层是完全透明的,并且不需要重新编译或者重新链接到新的库,因为所有一切都发生在内核级上。可以有几种方法将它配置成多用户共享环境群集。所有服务器可以共享一个池,系统可以是群集的一部分,或者群集可以动态地分成几个子群集,每种方法都有不同的用途。Linux 工作站还可以是群集的一部分,可以是固定的,也可以是临时的,或者只是作为批处理作业提交者。作为临时群集节点,工作站可以在其空闲时用于增加群集处理能力。也允许只以批处理方式使用群集,在这种方式中,群集被配置成通过队列接受批处理作业。然后,守护程序取走作业并将它们发送到群集节点进行处理。

MOSIX 的不利之处是它更改Linux 内核行为的一些核心部分,于是系统级应用程序将不会按期望运行。

除了高性能科学计算,MOSIX 提供了一个有趣的选项,用于以共同设置创建集群环境。通过使用服务器和工作站上的闲置资源,它可以更快更有效地创建和运行应用程序。由于访问了多台服务器,并且可以动态调整群集大小和更改负载均衡规则,它还可以提供高度的服务器可用性。MOSIX 的不利之处是它更改Linux 内核行为的一些核心部分,于是系统级应用程序将不会按期望运行。要使用网络应用程序时,而该程序使用基于单个服务器地址的套接字连接,MOSIX 通常也会受到限制。这意味着网络应用程序在一个服务器节点上开始运行时,如果IP 地址与套接字绑定,那么它必须继续在该节点上运行。显然,MOSIX 还正在开始迁移套接字,因此这很快就变成了争论的焦点。

高可用性群集

高可用性(HA) 群集致力于使服务器系统的运行速度和响应速度尽可能快。它们经常使用在多台机器上运行的冗余节点和服务,用来相互跟踪。如果某个节点失败,它的替补将在几秒钟或更短时间内接管它的职责。因此,对于用户而言,群集永远不会停机。

某些HA 群集也可以维护节点间冗余应用程序。因此,用户的应用程序将继续运行,即使他或她使用的节点出了故障。正在运行的应用程序会在几秒之内迁移到另一个节点,而所有用户只会察觉到响应稍微慢了一点。但是,这种应用程序级冗余要求将软件设计成具有群集意识的,并且知道节点失败时应该做什么。但对于Linux,大多数现在还做不到。因为Linux 系统没有HA 集群标准,并且也没有公共API 可供应用程序开发者构建有群集意识的软件。

HA 群集可以执行负载均衡,但通常主服务器运行作业,而系统使辅助服务器保持闲置。辅助服务器通常是主服务器操作系统设置的镜像,尽管硬件本身稍有不同。辅助节点对主服务器进行活动监控或心跳观察,以查看它是否仍在运行。如果心跳计时器没有接收到主服务器的响应,则辅助节点将接管网络和系统身份(如果是Linux 系统,则是IP 主机名和地址)。

但是,Linux 在这一领域仍有一点忽略。好消息是有一家著名的供应商正在努力尽快研制高可用性群集,因为它是企业级服务器都必需的功能。

Linux-HA 项目

高可用性Linux 项目,根据其目标声明,旨在为Linux 提供高可用性解决方案,以通过社区开发成果提高可靠性、可用性和服务能力。Linux 达到高可用性集群时,这是一种试图给予Linux 与先进的Unix 系统,如Solaris、AIX 和HP/UX,一样具有竞争力的特性。因此,项目的目标是在2001 年之前达到Unix 集群比较报告( https://www.360docs.net/doc/f315745328.html,/clusters/dh.brown.pdf) 中分析专家组D. H. Brown 特定功能性级别。

项目中有可以维护节点间心跳并接管失败节点的IP 地址的软件。如果一个节点失败,它使用“伪造冗余IP”软件包将失败节点的地址添加到工作节点以承担它的职责。于是,可以在几毫秒时间内自动替换失败的节点。实际使用中,心跳通常在几秒范围内,除非在节点之间有专用网络链接。因此,失败系统中的用户应用程序仍需要在新的节点上重新启动。

无处不在的集群

对于Linux,有许多集群系统可供选用。同时,那些项目中有几个是非商业性的,甚至是实验性质的。虽然对学术界和某些组织这也没有形成问题,但大公司通常首选著名供应商的商业支持平台。供应商,如IBM、SGI、HP 和Sun,提供了用于在Linux 中构建科学群集的产品和服务,因为群集很流行,并且可以销售大量的服务器设备。一旦商业机构认为其它形式的集群是可靠的,那些相同的服务器供应商或许会围绕着开放源码集群解决方案创建自己的产品。

Linux 作为服务器平台的重要性依赖于支持大型服务器和服务器群集的能力。这就使它可以与Sun、HP、IBM 和其它公司的UNIX 服务器在更高层面上竞争。虽然Windows NT 和2000 不支持Linux 能够支持的集群范围,但是HA 集群正规方法的可用性以及用于构建有群集意识的API 也使它能够参与竞争。

如果正在考虑构建一个群集,那么您应当仔细检查那些可能性,并将它们与您的需求做比较。您也许会发现想要实现的目标还不能成为一个完整的解决方案,或许会发现已经有了现成的解决方案。不管是哪种情况,请相信许多现有公司将他们的应用程序托付给进行深度计算并提供大量网页的Linux 系统群集。集群是一种企业系统服务,已经在Linux 下成功测试过。尽管新的集群将出现,但选择的多样性正是Linux 超过其它系统,如Windows NT,的优势。

Websphere for Linux集群安装和配置

前言 目前天安保险的WAS环境中有5台服务器,每台服务器配成一个node,每个node上配置了2个application server,组成了一个ND的环境。前台有一台F5做负载均衡,后面连接了1套oracle RAC的数据库。但5个node之间没有做成集群。为了保证Websphere系统高可用性,提高系统性能和负载均衡,考虑配置成集群,下面说明创建、配置集群的整个过程与注意事项。 1. 集群系统架构 操作系统:Linux version 2.6.18-8.el5 Websphere版本:WAS6.1ND 根据天安的环境,可使用如下拓扑: 其中cisapp1~cisapp5表示5台WebSphere,cisCluster表示5台做成一个cluster,dmgr一般是5台中的一台。

2. 创建集群(含session复制) (截图为我本机测试截图,只是示意图,与天安保险的节点名和集群名不符) 在DMGR控制台中,选择集群,然后新建。 注意:先创建一个空的集群,然后我们再向该集群中添加成员即可。 这里还要注意勾选“配置HTTP会话内存到内存复制”,这样就能使session 在集群内共享,比如用户登录,加入被集群分配给node1来处理,用户的登录信息就会被保存在session中,如果此时node1宕机了,用户就会被分配到其他节点来处理而不会要求重新登录。 如果在创建集群时没有勾选此选项,也可按如下方式操作: 配置会话复制 服务器 --> 应用程序服务器 --> 选择集群成员 --> 容器设置:会话管理--> 其他属性:分布式环境设置 --> 确认分布式会话选择的是内存到内存复制,其他属性:定制调整参数 --> 调整级别: 低(故障转移优化) 写频率 servlet服务结束

was8.5.5 linux集群部署

概述 linux集群部署,记录关键的几个步骤如下: 1.做两个InstallationManager安装工具,一个控制平台(79),一个HIS(78),两个node 2.服务器获取文件,sftp root@10.224.130.18p@ssw0rd 3.get /opt/software/IBM/agent.zip /opt/software/IBM/ exit 安装InstallationManager # 78、79上安装InstallationManager cd /opt/software mkdir agent unzip -q agent.zip -d agent cdagent /tools ./imcl install com.ibm.cic.agent -repositories ../repository.config -acceptLicense 安装WAS AS 8.5.5 #两个服务器都安装WAS mkdir WAS_ND_V8.5.5_3 unzip -q -d WAS_ND_V8.5.5_3 WAS_ND_V8.5.5_1_OF_3.zip unzip -q -d WAS_ND_V8.5.5_3 WAS_ND_V8.5.5_2_OF_3.zip unzip -q -d WAS_ND_V8.5.5_3 WAS_ND_V8.5.5_3_OF_3.zip cd /opt/IBM/InstallationManager/eclipse/tools/ ./imcllistAvailablePackages -repositories /opt/software/IBM/WAS_ND_V8.5.5_3 ./imcl install com.ibm.websphere.ND.v85_8.5.5000.20130514_1044 -repositories /opt/software/IBM/WAS_ND_V8.5.5_3 -acceptLicense 安装HIS #78 安装HIS mkdirWAS_V8.5.5_SUPPL unzip -q -d WAS_V8.5.5_SUPPLWAS_V8.5.5_SUPPL_1_OF_3.zip unzip -q -d WAS_V8.5.5_SUPPLWAS_V8.5.5_SUPPL_2_OF_3.zip

LINUX中使用IPVSADM配置LVS集群的基本方法

LVS集群有DR、TUN、NAT三种配置模式,可以对www服务、FTP服务、MAIL服务等做负载均衡,下面通过搭建www服务的负载均衡实例,讲述基于DR模式的LVS集群配置。 一、 Director Server的配置 在Director Server上配置LVS负载均衡集群,有两种方法: a. 通过ipvsadm命令行进行配置 b. 通过Redhat提供的工具piranha来配置LVS 通过ipvsadm命令行方式配置LVS 安装IPVS后,就可以配置LVS集群了,首先在Director Server上绑定一个虚拟IP(也叫VIP),此IP用于对外提供服务,执行如下命令: 复制代码 代码如下: [root@localhost ~]#ifconfig eth0:0 192.168.60.200 broadcast 192.168.60.200 netmask 255.255.255.255 up 此处在eth0设备上绑定了一个虚拟设备eth0:0,同时设置了一个虚拟IP是192.168.60.200,也就是上面我们规划的IP地址,然后指定广播地址也为192.168.60.200,需要特别注意的是,这里的子网掩码为255.255.255.255。 然后给设备eth0:0指定一条路由,执行如下指令: 代码如下: [root@localhost ~]#route add -host 192.168.60.200 dev eth0:0 接着启用系统的包转发功能,从而使系统充当路由器,执行如下指令: 代码如下: [root@localhost ~]#echo 1 ;/proc/sys/net/ipv4/ip_forward 指令中,参数值为1时启用ip转发,为0时禁止ip转发。其实在DR模式中,开启系统的包转发功能不是必须的,而在NAT模式下此操作是必须的。 然后开始配置ipvs,执行如下操作:

DM7集群部署方案之数据共享集群Linux(2节点)

DM7集群部署方案之数据共享集群 Linux(2节点) 武汉达梦数据库有限公司 2019年9月

版本历史

目录 1 前期准备工作 (1) 1.1硬件准备 (1) 1.2网络架构 (1) 1.3硬件环境建议 (1) 1.4硬件环境环境验证 (2) 1.5集群规划 (2) 1.6修改主机名 (2) 1.7关闭防火墙 (3) 1.8网卡自启 (3) 1.9修改系统参数 (3) 2 创建目录并安装数据库 (3) 2.1A机器 (3) 2.2B机器 (4) 3 存储准备 (4) 3.1划存储 (4) 3.2挂存储方法1:直接挂 (4) 3.3挂存储方法2:多路径绑定 (5) 4 搭建DSC (6) 4.1配置DMDCR_CFG.INI (6) 4.2初始化磁盘组 (7) 4.3配置DMASVRMAL.INI (7) 4.4配置DMDCR.INI (7) 4.5启动CSS、ASM服务 (8) 4.6创建DMASM磁盘组 (9) 4.7配置DMINIT.INI (9) 4.8初始化数据库 (9) 4.9配置DMARCH.INI (10)

4.10启动DMSERVER服务 (10) 4.11设置后台启动脚本 (11) 4.12启停集群 (12) 5 配置监视器 (13) 5.1配置DMCSSM.INI (13) 5.2启动监视器 (13) 6配置DM_SVC.CONF文件 (13) 6.1 DM_SVC.CONF配置内容 (13) 6.2应用连接 (14) 7附加操作 (14) 7.1操作系统/数据库调优 (14) 7.2数据库备份 (14) 7.3项目管理维护 (14)

Torque在Linux集群上的安装配置

服务器的基本状况: 一个2T硬盘的前端存储节点,名称为tccl_front;9台8核的计算节点,名称分别为tccl01-tccl09。操作系统为CentOS 5.3 x86_64版本的Linux系统。 NIS服务已经配置好,存储节点的磁盘用NFS挂载在每个计算节点上作为共享磁盘。所有的应用软件都安装在此共享磁盘上。 1.ssh免密码登录.对每个用户都要设置。 2.下载Torque,解压缩,编译。 目前,torque 2.3是稳定版本,2.4是beta版本。为了稳定,我下载的是2.3.9版本。下载地址: https://www.360docs.net/doc/f315745328.html,/downloads/torque 在PBS服务器节点上: tar xvfz torque-2.3.9.tar.gz configure需要加参数 ./configure --enable-docs --with-scp --enable-syslog make make packages make install 将torque-package-mom-linux-i686.sh,torque-package-clients-linux-i686.sh安装到计算节点上。 将这两个文件拷贝到计算节点上(或者是共享磁盘上),登录进计算节点,运行: ./torque-package-mom-linux-i686.sh --install ./torque-package-clients-linux-i686.sh --install 可以使用dsh之类的工具来辅助。或者手工写一个脚本来完成这些工作。 3.配置pbs_mom为服务 在torque源码包contrib目录中有一个文件 cp contrib/init.d/pbs_mom /etc/init.d/pbs_mom chkconfig --add pbs_mom 在所有的机器(pbs服务器和计算节点)上都需要如此设置。 写脚本来完成吧!比如 for i in `seq 1 9` do echo tccl0$i ssh tccl0$i "some command" done 4.配置torque 1) ldconfig 2) Specify Compute Nodes 编辑文件 /var/spool/torque/server_priv/nodes 内容如下(注意,这里使用的都是机器的简称,与使用免密码登录时的机器名称相同):

Linux平台Apache高可用双机集群Tomcat负载均衡集群配置手册

Linux平台Apache双机高可用集群 + Tomcat负载均衡集群配置手册

在这个配置手册中,使用的操作系统和软件清单如下: 操作系统: RedHat Enterprise Linux AS4 U4 64bit(安装时最好选择完全安装) 软件: jdk-1_5_0_15-linux-amd64.bin Tomcat5.5.26 httpd-2.0.63.tar.gz jakarta-tomcat-connectors-jk2-src-current.tar.gz ipvsadm-1.24.tar.gz libnet.tar.gz heartbeat-2.1.3-3.el4.centos.x86_64.rpm heartbeat-pils-2.1.3-3.el4.centos.x86_64.rpm heartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm 因为是linux操作系统,所以在安装软件时请使用对应自己操作系统内核的软件,这是整个集群成功的第一步。本配置手册中的软件都是对应RedHat Enterprise Linux AS4 U4 64bit 这个版本的软件。 jdk-1_5_0_15-linux-amd64.bin JAVA环境包使用的是64位1.5版 Tomcat版本为公司指定的5.5版本 Apache为2.0.63版 jakarta-tomcat-connectors-jk2-src-current.tar.gz 是连接Apache和Tomcat的连接插件,具体可以去Tomcat网站上查找下载 ipvsadm-1.24.tar.gz libnet.tar.gz 这两个是用于2台Apache服务器虚拟一个IP地址使用 heartbeat-2.1.3-3.el4.centos.x86_64.rpm heartbeat-pils-2.1.3-3.el4.centos.x86_64.rpm heartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm 这3个软件是用于2台Apache服务器之间的心跳检测

DM7集群部署方案之数据守护集群Linux(主备)

DM7集群部署方案之数据守护集群 Linux(主备) 武汉达梦数据库有限公司 2019年9月

版本历史

目录 1 安装前准备 (1) 1.1集群规划 (1) 1.2网络架构 (1) 1.3硬件环境建议 (2) 1.4硬件环境环境验证 (2) 1.5A机器:实例、启服务 (2) 2 配置A机器 (2) 2.1注册服务 (2) 2.2配置DM.INI (3) 2.3配置DMARCH.INI (3) 2.4配置DMMAL.INI (4) 2.5配置DMWATCHER.INI (4) 2.6配置DMWATCHER.CTL (4) 2.7拷贝实例 (5) 3 配置B机器 (5) 3.1注册服务 (5) 3.2配置DM.INI (6) 3.3配置DMARCH.INI (6) 3.4相同配置项 (6) 4 配置监视器 (6) 4.1注册服务 (6) 4.2配置DMMONITOR.INI (7) 4.3监视器使用 (7) 5 启动服务及查看信息 (8) 5.1启动数据库服务并修改参数 (8) 5.2查询主备库信息是否一致 (8) 5.3启动守护进程 (8)

5.4启动监视器 (8) 5.5启停集群 (9) 6 配置DM_SVC.CONF文件 (9) 6.1 DM_SVC.CONF配置内容 (9) 6.2应用连接 (9) 7 附加操作 (10) 7.1操作系统/数据库调优 (10) 7.2数据库备份 (10) 7.3项目管理维护 (10)

1安装前准备 1.1集群规划 说明:具体规划及部署方式以现场环境为准。 1.2网络架构 主机备机

1.3硬件环境建议 心跳网络方面:①集群间的心跳网络要走数据,最好走两个交换机,来实现冗余和负载均衡。②需要把服务器多个心跳网卡绑定为一个逻辑网卡来使用(比如bond方式)。③交换机速度建议至少为千兆。 存储方面:①需要在每台机器上挂在独立存储,其中主机所在机器挂载的存储建议大一些。②需要格式化好,且所有机器挂载路径保持一致。③在空间不够用时,要求支持在挂载目录上直接进行扩充。④文件系统建议使用ext4。 1.4硬件环境环境验证 心跳网络方面:①关闭其中一台交换机或者模拟其中一条线路故障,是否能做到网络方面的冗余。②测试心跳网络的稳定性,会不会出现断连或者丢包等情况。 存储方面:反复重启集群机器,检查存储是否会出现只读、脱挂、挂载路径是否会发生改变等情况。 1.5A机器:实例、启服务 2配置A机器 2.1注册服务 ①复制数据库和守护进程服务文件到/etc/rc.d/init.d目录 ②vi /etc/rc.d/init.d/DmServiceRT1_01文件 ③vi /etc/rc.d/init.d/DmServiceWatcher文件 ④修改启动服务的等级连接

CAS集群部署(Linux)

安装CAS集群(v1.0)

目录 1部署操作 (2) 1.1硬件及部署要求 (2) 1.1.1部署图 (2) 1.2操作系统安装—SERVER1,2 .................................................................................................. 错误!未定义书签。 1.3安装M EMCACHED (2) 1.3.1安装环境 (2) 1.3.2安装步骤 (3) 1.4安装LVS (7) 1.5配置CAS集群模式 (11)

1 部署操作 1.1 硬件及部署要求 以下几种集群部署策略请根据实际情况选择确定。 (1)使用认证平台人数在3万人以下,并发5000以下,不推荐集群化部署,单台即可; 节点服务器要求(2路4核,8G 内存以上)物理机优先。 1.1.1 部署图 说明:此架构为CAS 的集群模式,考虑高并发的模式及双击热备的模式,Memcached 需要配置1-2G 内存,可以考虑单独部署服务器,可以与其中一台CAS 服务器进行一起部署。 如果Memcached 挂了或者不能访问了,CAS 服务器就不能访问。 ● CPU 类型:Intel/AMD (64位,主频2.6GHz 以上,2核及以上) ● 内存容量:4GB 及以上 ● 硬盘容量:160GB 以上,Raid 1/5 ● 网络控制器:千兆以太网卡(两块以上) ● IP (对外提供服务):3个,其中一个为虚拟ip ● 集群策略:MirrorMode ● 拓扑图: PC Smart Phone IP :Memcached 1.2 安装Memcached 1.2.1 安装环境 redhat server 6.3(64bit)/ Centos 6.3(64bit)

linux集群应用实战

课程描述: 网络的飞速发展,给网络带宽和服务器性能带来了巨大的挑战,基于互联网的应用系统越来越多的瓶颈出现在服务器端,这就对服务器提出了更高的要求,同时,在互联网运营和管理上,也要求更加的智能和灵活,如何能够实时的了解每个服务器的运行状态,并在应用出现故障的第一时间内来处理问题,成为互联网运维中的一个重中之重。 本课程就重点介绍这方面的应用和案例,首先介绍开源的网络存储应用ISCSI,iSCSI技术以其低廉的构建成本和优秀的存储性能,博得了很多CIO和存储管理员的喜爱,目前已经陆续进入企业应用领域,这种技术推动了企业向集中式存储环境转变。 接着介绍nagios监控系统,Nagios是系统管理人员和运维监控人员必须的工具之一,使用nagios可以监控本地或远程主机资源,例如磁盘空间、系统负载等信息,也可以监控各种应用服务,例如httpd服务、ftp服务等,当主机或者服务出现故障时,nagios还可以通过邮件、手机短信等方式在第一时间内通知系统维护人员。利用nagios可以以低廉的成本达到商业监控系统所完成的功能。 最后,讲解了集群系统在企业级方面的应用,主要讲述了红帽集群套件RHCS开源HA heartbeat、负载均衡器LVS、Oracle集群数据库RAC、Mysql+DRBD集群等方面的应用案例,通过使用Linux搭建集群,可以用较低的价格来实现高可伸缩、高可用的网络服务,弥补单一服务器无法达到的性能。 购买地址:https://www.360docs.net/doc/f315745328.html,/3501607 在线观看: 讲师介绍: 高俊峰,网名南非蚂蚁,经常活跃于国内著名技术社区IXPUB (https://www.360docs.net/doc/f315745328.html,)、ITPUB (https://www.360docs.net/doc/f315745328.html,)、ChinaUnix(https://www.360docs.net/doc/f315745328.html,),在IXPUB任“Linux与开源世界”及“存储设备与容灾技术”版主,多年专注于Linux+Oracle技术方面的研究与实践,擅长Linux系统管理与应用,实战经验丰富。 课程目录一览 第1讲 iscsi的概念、组成和工作原理 课程目标:了解iscsi的组成和工作原理。 课程内容: iscsi的概念。 iscsi的组成。 iscsi的工作原理。 第2-3讲基于iscsi的ip san存储系统 课程目标:

linux安装weblogic10集群

Weblogic10集群负载均衡安装和配置 1、集群系统架构 操作系统: linux as4 u8 Weblogic版本 Weblogic10 注意:有工作流或MQ时要单独安装,不要放到集群中 2、系统整体架构 2.1、Weblogic方案:(建议服务器有4G以上的内存) 一台管理服务器:安装weblogic10 管理节点、受管节点。 二至五台应用服务器节点:安装Weblogic10 受管节点。 一台工作流服务器:安装WebSphere Application Server。 一台MQ服务器:安装WebSphere Application Server。 2.2、本例中的部署如下所示: 管理节点和受管节点安装在主机 JWZHYY1,另一个受管节点单独安装主机名为JWZHYY2,组成一个集群,通过代理服务器来完成负载均衡。 3、集群的安装 3.1、安装集群的先决条件 注意,必须在每个服务器中编辑/etc/hosts文件使群集的服务器之间能够互相使用机器名访问。保证每一台应用服务器都可以使用ping 群集应用服务器名称来访问,实例文件/etc/hosts内容如下 127.0.0.1 localhost.localdomain localhost #本机 192.168.1.3 https://www.360docs.net/doc/f315745328.html, jwzhyy1 #节点1 192.168.1.4 https://www.360docs.net/doc/f315745328.html, jwzhyy2 #节点2 192.168.1.8 https://www.360docs.net/doc/f315745328.html, jwzhdb1 #数据库1 192.168.1.9 https://www.360docs.net/doc/f315745328.html, jwzhdb2 #数据库2 以 root 用户身份登录并在每个主机上配置 Linux 内核参数。 cat >> /etc/sysctl.conf >>EOF kernel.shmall = 2097152 kernel.shmmax = 4294967295 kernel.shmmni = 4096 kernel.sem = 250 32000 100 128 fs.file-max = 65536 net.ipv4.ip_local_port_range = 1024 65000 net.core.rmem_default=262144 net.core.wmem_default=262144

linux服务器集群的详细配置

linux服务器集群的详细配置 一、计算机集群简介 计算机集群简称集群是一种计算机系统,它通过一组松散集成的计算机软件和/或硬件连接起来高度紧密地协作完成计算工作。在某种意义上,他们可以被看作是一台计算机。集群系统中的单个计算机通常称为节点,通常通过局域网连接,但也有其它的可能连接方式。集群计算机通常用来改进单个计算机的计算速度和/或可靠性。一般情况下集群计算机比单个计算机,比如工作站或超级计算机性能价格比要高得多。 二、集群的分类 群分为同构与异构两种,它们的区别在于:组成集群系统的计算机之间的体系结构是否相同。集群计算机按功能和结构可以分成以下几类: 高可用性集群High-availability (HA) clusters 负载均衡集群Load balancing clusters 高性能计算集群High-performance (HPC) clusters 网格计算Grid computing 高可用性集群 一般是指当集群中有某个节点失效的情况下,其上的任务会自动转移到其他正常的节点上。还指可以将集群中的某节点进行离线维护再上线,该过程并不影响整个集群的运行。 负载均衡集群 负载均衡集群运行时一般通过一个或者多个前端负载均衡器将工作负载分发到后端的一组服务 器上,从而达到整个系统的高性能和高可用性。这样的计算机集群有时也被称为服务器群(Server Farm)。一般高可用性集群和负载均衡集群会使用类似的技术,或同时具有高可用性与负载均衡的特点。 Linux虚拟服务器(LVS)项目在Linux操作系统上提供了最常用的负载均衡软件。 高性能计算集群 高性能计算集群采用将计算任务分配到集群的不同计算节点而提高计算能力,因而主要应用在科学计算领域。比较流行的HPC采用Linux操作系统和其它一些免费软件来完成并行运算。这一集群配置通常被称为Beowulf集群。这类集群通常运行特定的程序以发挥HPC cluster的并行能力。这类程序一般应用特定的运行库, 比如专为科学计算设计的MPI库 集群特别适合于在计算中各计算节点之间发生大量数据通讯的计算作业,比如一个节点的中间结果或影响到其它节点计算结果的情况。 网格计算 网格计算或网格集群是一种与集群计算非常相关的技术。网格与传统集群的主要差别是网格是连接一组相关并不信任的计算机,它的运作更像一个计算公共设施而不是一个独立的计算机。还有,网格通常比集群支持更多不同类型的计算机集合。 网格计算是针对有许多独立作业的工作任务作优化,在计算过程中作业间无需共享数据。网格主要服务于管理在独立执行工作的计算机间的作业分配。资源如存储可以被所有结点共享,但作业的中间结果不会影响在其他网格结点上作业的进展。

linux集群

RHCS集群配置 需要用到的各组件功能: RHCS(Red Hat Cluster Suite):能够提供高可用性、高可靠性、负载均衡、存储共享且经济廉价的集群工具集合。 LUCI:是一个基于web的集群配置方式,通过luci可以轻松的搭建一个功能强大的集群系统。 CLVM:Cluster逻辑卷管理,是LVM的扩展,这种扩展允许cluster中的机器使用LVM来管理共享存储。 CMAN:分布式集群管理器。 GFS(Google File System):以本地文件系统的形式出现。多个Linux机器通过网络共享存储设备,每一台机器都可以将网络共享磁盘看作是本地磁盘,如果某台机器对某个文件执行了写操作,则后来访问此文件的机器就会读到写以后的结果。 实验需求: 集群管理/ISCSI共享存储主机IP:192.168.0.40主机名:https://www.360docs.net/doc/f315745328.html, 集群节点一IP:192.168.0.41主机名:https://www.360docs.net/doc/f315745328.html, 集群节点二IP:192.168.0.42主机名:https://www.360docs.net/doc/f315745328.html, 一、【准备工作】 1、修改管理主机和每个节点的hosts文件,保证三台服务器的hosts文件一样。 注:主机名最好使用域名形式,因为之前只用了gfs1这样的主机名,到后来,配置都顺利结束,但重启节点后,发现共享存储挂不上,看到是clvmd启动超时,估计是主机名的原因,解析不到?有待斟酌。 2、两台节点上分别关闭selinux、iptables和NetworkManager

注:两台节点上都得操作,操作完后reboot重启两台节点,使配置生效 二、【群集管理主机设置】 1、安装并启用luci集群管理 这时,你就可以用https://https://www.360docs.net/doc/f315745328.html,:8084(或https://192.168.0.40:8084)登陆集群web管理界面了,以root登陆即可 三、【各节点配置】 1、在两台节点分别yum安装ricci、rgmanager、cman 启动cman如出现错误: Starting cman... xmlconfig cannot find /etc/cluster/cluster.conf [FAILED] 是因为节点还没有加入集群,没有产生配置文件/etc/cluster/cluster.conf 2、在两台节点上给ricci用户设置与root相同的密码 四、【集群web管理界面配置】 1、浏览器打开https://192.168.0.40:8084 输入root和root密码进行登陆 2、添加集群 点击Manager Clusters---> Create 创建一个集群,如下图,输入集群名称,添加每个节点的主机名、密码,勾选Download Packages、Reboot Nodes Before Jo ining Cluster、Enable Shared Storage Support,最后点击Create Cluster创建集群,耐心等待,创建过程中两台节点会重启...

Oracle在Linux下集群RAC的安装与启停

Oracle在Linux下集群RAC的安装与启停 陈方辉2012-7-15 以下讲解了Oracle数据库在Linux服务器上部署RAC集群的整个过程,共分8小节,包括硬件硬置,操作系统配制,集群软件Clusterware的安装,以及Oracle数据库软件的安装和集群数据库的创建。 如操作中有疑问或需要虚拟安装部署实验环境,以及Oracle数据库的安装包,请发邮件至chenfanghui12@https://www.360docs.net/doc/f315745328.html,。 1、硬件配置 加载虚拟机,修改虚拟机的名称为rac1。 增加一个类型为SCSI、模式为Independent-Persistent的20G硬盘做为共享存储,并即时分配存储空间,将此硬盘设备的节点设置为SCSI1:0。 增加一块网卡用来作为RAC内部通信。 在虚拟机的.vmx配制文件中增加以下内容: disk.locking = "false" diskLib.dataCacheMaxSize = "0" diskLib.dataCacheMaxReadAheadSize = "0" diskLib.DataCacheMinReadAheadSize = "0" diskLib.dataCachePageSize = "4096" diskLib.maxUnsyncedWrites = "0" 2、Linux操作系统配制 修改主机名为rac1(修改后要重启才能生效) /etc/sysconfig/network 修改主机2个网卡的IP地址:(注意重新获取网卡的mac地址) system-config-network eth0:192.168.1.10 255.255.255.0 192.168.1.1(注意:这个网关一定要写,否则在安装完clusterware时进行vipca 会报错) eth1:10.10.10.10 255.255.255.0 修改域名文件 /etc/hosts 127.0.0.1 localhost 192.168.1.10 https://www.360docs.net/doc/f315745328.html, rac1 192.168.1.11 https://www.360docs.net/doc/f315745328.html, rac2 10.10.10.10 https://www.360docs.net/doc/f315745328.html, rac1-priv 10.10.10.11 https://www.360docs.net/doc/f315745328.html, rac2-priv 192.168.1.210 https://www.360docs.net/doc/f315745328.html, rac1-vip

Linux下Weblogic9集群配置

Linux下Weblogic9集群配置 作者:zzm 1 目的 本文讲述如何在WebLogic Server 9.2上配置集群,以及通过Proxy Server来访问集群,可以参照这个文档进行linux下weblogic群集的配置,群集启动和节点启动,发布应用,同步应用,session的复制共享,测试应用的自动分发功能,自动接管功能。 2 预备知识 什么是Domain和Server Domain Domain是WebLogic Server实例的基本管理单元。所谓Domain就是,由配置为Administrator Server的WebLogic Server实例管理的逻辑单元,这个单元是有所有相关资源的集合。 Server Server是一个相对独立的,为实现某些特定功能而结合在一起的单元。 Domain and Server的关系 一个Domain 可以包含一个或多个WebLogic Server实例,甚至是Server集群。一个Domain 中有一个且只能有一个Server 担任管理Server的功能,其它的Server具体实现一个特定的逻辑功能。 3 本文环境 平台:Linux as 4 软件:Bea WebLogic Server 9.2 MP3 配置WebLogic Server集群 WebLogic集群的体系结构 单层混合型的集群架构(Cluster) 这种架构将所有的Web应用以及相关的服务应用全部置于集群中的单一WLS实例中,这种架构的优势在于: 易于管理 灵活的负载平衡机制

更强的安全控制 多层结构的集群架构(Cluster) 这种架构使用两个WLS集群,一个放置表静态内容和集群Servlet,另一个放置集群EJB。一般应用于下面这些情况: 在负载平衡机制需要调用集群EJB中的方法时; 在提供内容与提供对象的服务之间需要更大的机动性时; 在需要更高的系统稳定性时; 3.1配置集群应用的必要条件 集群中的所有Server必须位于同一网段,并且必须是IP广播(UDP)可到达的? 集群中的所有Server必须使用相同的版本,包括Service Pack 集群中的Server必须使用永久的静态IP地址。动态IP地址分配不能用于集群环境。如果服务器位于防火墙后面,而客户机位于防火墙外面,那么服务器必须有公共的静态IP地址,只有这样,客户端才能访问服务器 要以CLUSTER方式运行,必须有包含CLUSTER许可的LICENSE才行(从Bea网站上下载的试用版本就可以进行Cluster配置) 3.2配置前的准备工作 在配置集群应用前要对集群的配置信息有一个良好的设计,下面就是我们这次配置的集群信息: 在同一网段内的不同机器上配置集群,以下是以2台机器做群集, 机器类型操作系统硬件配置角色备注 普通PC Linux as 4 IP:192.168.140.196 PORT:7001 AdministratorServer Pc1 普通PC Linux as 4 IP: 192.168.140.196 PORT:7003 ProxyServer Pc1 普通PC Linux as 4 IP: 192.168.140.196 PORT:7002 Managed Server Pc1 普通PC Linux as 4 IP: 192.168.140.197 PORT:7001 Managed Server Pc2 4配置步骤 4.1配置管理服务(adminServer) 使用Domain Configuration Wizard进行配置 创建新的Domain 第一步:

linux双机热备

目前,双机和集群采用的操作系统主要有UNIX、Linux、BSD及微软公司的Windows NT/2000。随着Linux的迅速发展,稳定性、安全性及功能的不断增强,人们对Linux的使用越来越广泛,Linux已成为服务器市场中的一个重要操作系统,基于Linux的双机和集群系统也越来越多。 Linux集群的主要优点有:高可靠性、高性能、低成本等等。 1.1 概述 1.1.1 实现目的 双机热备份(Hot Standby)是一种软硬件相结合的高可靠性应用方案。双机热备系统由两台独立 的服务器以及相应的控制软件构成,两台服务器在网络中表现为单一的系统,对外表现为一个独 立的网络IP,并以单一系统的模式进行控制和管理。该系统将两台服务器的数据和运行状态(包 括硬盘数据和内存数据)进行镜像,可以实现两台服务器之间的热备份,并能够做到无缝切换, 从而对外提供稳定可靠的服务,实现双机系统的高可用性解决方案。 1.1.2 功能概述 双机热备份系统由相应的应用软件进行控制,操作系统和应用程序安装在两台服务器的系统盘上。 每一台服务器分配一个固定的IP地址,此外还指定了一个独立IP地址作为集群IP(cluster IP),该IP是双机系统对外提供服务的接口。 两台服务器一台成为主节点(Primary Server),另一台成为从节点(Standby Server),主节 点与从节点之间保持固定时间间隔的心跳信号,通过心跳信号实现两个对等系统之间的周期性的 握手,从而能够监视对方的运行状态,进行主机及网络的故障检测。 在系统正常情况下,主节点占用系统资源并运行所有的服务,为信息系统提供支持,从节点通过 心跳信号监视主节点的运行情况。一旦主节点发生故障(如主机故障,网络故障,软件故障等), 从节点就会自动接管(Take Over)主节点的资源和服务,继续支持信息的运营,从而保证整个双 机系统能够不间断的运行(Non-Stop)。主节点在恢复运行后,又可以自动获取资源并取代从节点。 1.2 运行环境 1.2.1 硬件需求 在集群系统的实现方案中双机热备份系统是硬件配置最简单和价格最低廉的解决方案,通常镜像 服务的硬件配置需要两台独立的服务器,每台服务器有独立的操作系统硬盘和数据存贮硬盘, 每台服务器有提供网络连接功能的网卡,此外还可以有一对完成内部连接和数据镜像功能的网卡。 双机系统的两台服务器拥有共享的数据存储空间(可以是一个数据存储硬盘或一台专门的数据存 储服务器)。任何一台服务器在运行服务时,从共享的数据存储空间内读取和存储数据。每台服 务器的操作系统和应用程序文件存储在各自的本地存储空间上。 双机热备份系统采用内存镜像的技术,即把两台服务器的数据和运行状态(包括硬盘数据和内存 数据)进行镜像。这个技术的优点是所有的应用程序和操作数据在两台服务器上镜像同步,当主 节点出现故障时,从节点可以在几乎没有延迟的情况下接管主节点运行的服务,从而实现无缝切 换和热备份。该技术的缺点是,由于两台服务器的内存完全一致,当由于系统应用程序带有缺陷 而导致系统宕机时,两台服务器会同步宕机。 也可以在双机系统中使用第三方生产的磁盘阵列柜,在磁盘阵列柜中安装有磁盘阵列控制卡,阵 列柜可以直接将柜中的硬盘配置成为逻辑盘阵。该结构不采用内存镜像技术,因此需要有一定的 切换时间,同时由于所有的数据全部存贮在磁盘阵列柜中,当主节点出现故障时,从节点接替主 节点,从磁盘阵列柜中读取数据,所以不会产生数据不同步的问题。由于这种方案不需要网络镜 像同步,因此这种集群方案服务器的性能要比镜像服务器结构高出很多。 双机热备份系统的两台服务器通过内部局域网进行连接,通过周期性的心跳信号保持通信和进行 相互监视。两台服务器之间可以采用多种连接方式,可以使用串口线,也可以通过以太网ethernet 进行连接,还可以采用并存的多种连接方式实现两台主机的多重互连。如果双机系统有冗余连接,

DM8集群部署方案之读写分离集群Linux(2节点)

DM8集群部署方案之读写分离集群 Linux(2节点) 武汉达梦数据库有限公司 2019年9月

版本历史

目录 1 安装前准备 (1) 1.1集群规划 (1) 1.2网络架构 (1) 1.3硬件环境建议 (2) 1.4硬件环境环境验证 (2) 1.5A机器:实例、启服务 (2) 2 配置A机器 (2) 2.1注册服务 (2) 2.2配置DM.INI (3) 2.3配置DMARCH.INI (3) 2.4配置DMMAL.INI (4) 2.5配置DMWATCHER.INI (4) 2.6配置DMWATCHER.CTL (4) 2.7拷贝实例 (5) 3 配置B机器 (5) 3.1注册服务 (5) 3.2配置DM.INI (6) 3.3配置DMARCH.INI (6) 3.4相同配置项 (6) 4 配置监视器 (6) 4.1注册服务 (6) 4.2配置DMMONITOR.INI (7) 4.3监视器使用 (7) 5 启动服务及查看信息 (8) 5.1启动数据库服务并修改参数 (8) 5.2查询主备库信息是否一致 (8) 5.3启动守护进程 (8)

5.4启动监视器 (9) 5.5启停集群 (9) 6 配置DM_SVC.CONF文件 (9) 6.1 DM_SVC.CONF配置内容 (9) 6.2应用连接 (9) 7 附加操作 (10) 7.1操作系统/数据库调优 (10) 7.2数据库备份 (10) 7.3项目管理维护 (10)

1安装前准备 1.1集群规划 说明:具体规划及部署方式以现场环境为准。 1.2网络架构 主机备机

浅谈Linux集群的行业应用

浅谈Linux集群的行业应用 据最近公布的数据显示,世界500强超级计算机系统中,使用Linux操作系统的。已占到了280席,而在我国,越来 越多行业中,Linux高性能计算产品也正得到广泛的应用。 所谓Linux集群,就是利用商品化的工业标准互联网络 将各种普通Linux服务器连接起来,通过特定的方法向用户 提供更高的系统计算性能、存储性能和I/O性能,也就是具备单一系统映像(SSI)特征的分布式存储MIMD(多指令流多数据流)并行计算机系统。Linux有大量的集群系统可供选择, 适合于不同的用途和需要。 通过几十甚至几百个运行Linux操作系统的计算节点, 组成一个庞大的虚拟计算机,提供强大的并行运算能力,而价格却比传统小型机要便宜得多。 高可用性集群也可以在其节点之间均衡用户负载,同时仍试图维持高可用性程度。同样,可以从要编入应用程序的集群中找到一个并行集群,它可以在节点之间执行负载均衡。 目前,Linux集群在石油行业的应用主要集中在地震资料处理和油藏数值模拟两大领域。因数据量大、计算量大、通信量大等行业特点,地震资料处理成为Linux集群发挥自身 优势最主要的平台。

最早,辽河油田、新疆油田、青海油田等国内企业采用了IBM公司具有Linux集群技术的LCl300系统。2002年10月,中国石油东方地球物理公司涿州物探研究院将曙光4000L Linux/PC Cluster作为应用平台。2004年涿州物探研究院和新疆油田公司把由IBMeServer BladeCenter刀片服务器组成的Linux集群用于石油勘探地震资料处理的高性能计算。两地搭建的高性能计算平台以该刀片服务器作为计算节点,分别有194个节点和200多个节点,主要负责地震勘探资料处理。同年7月,东方地球物理公司研究院大港分院采用HPProLiant BL20P G2刀片式服务器作为计算节点的高性能计算集群系统正式投产。该系统包括119个HP ProLiant BL20P 计算节点和14个ProLiant DL380G2 I/O节点,以集群技术组成的超级并行计算机作为地震资料处理的主机系统。整个系统共133个节点、266个处理器,安装了CGG、Geodepth等先进的处理软件,能够提供更精准的地构造及地下成像。 2006年10月,国内最大规模的集群地震资料处理系统在大庆油田勘探开发研究院正式投入使用。该地震资料处理系统采用了中国惠普公司开发出的刀片服务器集群架构,集成了692台惠普公司的第三代服务器产品――HPBL20PG3、HPDL380G3和HPDL580G3服务器,选用了1432个Intel至强中国刀片服务器集群系统,是国内处理规模最大、系统配置最优、技术性能最好的地震资料处理CPU。

Linux集群cluster详细实战配置过程(双节点)及问题解答

Linux集群cluster详细配置过程(双节点) 一、配置环境: HP_DL388G7服务器(ILO3)两台,交换机一台。 由于安装系统时已安装集群服务,因此不用再次安装集群包。 1、配置ILO3信息: a)启动时按F8进入ILO配置界面,配置IP,用户名及密码信息。 2、配置主机名、IP地址及hosts文件。 a)将两台主机加入hosts文件,以便能互相解析。 二、配置自启动检查: Chkconfig --del acpid Service acpid stop Chkconfig –level 2345 cman on Chkconfig –level 2345 rgmanager on Chkconfig –level 2345 luci on Chkconfig –level 2345 ricci on Chkconfig –level 2345 iptables off Chkconfig –level 2345 NetworkManager off 三、使用图形界面(conga)配置cluster 1、启动luci服务(conga user interface server) Service luci start 2、启动ricci服务(在RHEL6中,ricci替代ccsd,运行于每个节点,传播集群配置的更新) Service ricci start 首次启动需配置密码,使用命令passwd ricci 以更新密码,ricci使用端口号11111,配置防火墙以允许。 3、输入https://主机名(主机IP):8084下图所示 输入用户名root,密码登录

相关主题
相关文档
最新文档