TUXEDO域配置和负载均衡

TUXEDO域配置和负载均衡
TUXEDO域配置和负载均衡

周报

TUXEDO系统在账务和接口出现得比较频繁,除了ATM编程,域的配置也是比较重要的,这周就结合下账务和接口现有的架构总结下我对域的理解吧。

域的作用主要是实现系统间的交互,一台或者多台服务器都可以构成一个域。你可以把一个域看成域名+IP+PORT。账务这边的tuxedo系统,正常会配置两个或者三个对外的域:第一个是给账务前台使用,账务前台使用的weblogic服务器,这时前台的weblogic系统自己可以看成一个域,后台的tuxedo也是一个域。Weblogic侧和tuxedo侧都要配置好对方和自己的域名,不光是地址和端口号要一样,连域名也要两边一致。要配置地址和端口号,这个是很好理解的,这是不同主机间交互的必要条件,但是为什么域的两边都要加入对方的地址和端口呢?当我服务为单侧调用时,只调用端加入被调用方的地址不就行了么?这就如socket通信,客户端只要知道服务端的地址就行,服务端可以接收到请求时自动知道客户端的地址,而不用配置客户端的地址。一开始我不知道是什么原因,后来知道了原因,系统间交互是要讲究安全减小风险了,两侧都要配置进对方的域是为了仅仅只和对方通信,这也是域名两边也要一直的原因。如果账务的tuxedo服务随便什么域都能调用,那还得了?第二个域是用来调用计费侧的实时欠费的,这时候账务侧的tuxedo和计费侧的tuxedo分别是一个域。预付费用户要计算余额得减去实时欠费,总账表中其实就有数据,账务侧自己就能算实时话费,何必要劳烦计费侧呢?这个原因是不是为了提升缴费时的查询速度?我们都知道计费侧的事实欠费时放在内存中的,从它那去肯定要比账务侧快。其实这样做的目的并不是为了账务前台的查询,而是为了满足停复机的需求,账务侧缴费会触发停复机,缴费的数据量是很大,对时间的要求很高,即使现在这种优化了的办法有时候还是满足不了短期内高数据量的需求,比如说批扣。第三个域是给VC充值接口用的,当然有的地方没有,这种情况类似欠费前台,都是WTC互联,就不再说了。

下面说下tuxedo侧域的配置的方法,一个简单的配置文件如下:

*DM_RESOURCES

VERSION=U22

*DM_LOCAL_DOMAINS

test_tux GWGRP=GROUP3

TYPE=TDOMAIN

DOMAINID="test_tux"

BLOCKTIME=240

MAXDATALEN=204800

MAXRDOM=89

CONNECTION_POLICY=ON_STARTUP

*DM_REMOTE_DOMAINS

bank_135 TYPE=TDOMAIN

DOMAINID="bank_135"

*DM_TDOMAIN

bank_135 NWADDR="//135.161.24.135:5438"

*DM_LOCAL_SERVICES

#server[SQL_AGENT]

SHORT_SQLAGENT ##service in SERVER [sqlagent_s_serv] 03.05.29 ADD

LONG_SQLAGENT ##service in SERVER [sqlagent_s_serv] 03.05.29 ADD

其中

*DM_LOCAL_DOMAINS这个模块里面是配置本地域名,*DM_REMOTE_DOMAINS这个模块是配置远程通信域名,*DM_TDOMAIN里面用来配置所有域的地址和端口。*DM_REMOTE_SERVICES是用来配置远程域中可以被本地调用的服务名,*DM_LOCAL_SERVICES则是配置本地域中可以被远程域访问的服务。

通常配置域的方法是修改域的配置文件,然后通过dmloadcf命令来编译它。当然你也可以用dmadmin来直接修改编译后的二进制文件,但是这种方法容易出错,命令也不好记,所以很少有人这么用。域配置好后最好要检查互通情况,这时可以dmadmin下的pd –d 本地域名来查看各个域的通信情况。

Weblogic侧的域的配置是有界面,很简单,就不说了。

最初我对域的理解是负载均衡用的,而不是“用于通信”,后来我发现不对,虽然通过域我们可以实现简单的负载均衡。上次131主机上账务服务僵死导致充值接口出问题后,老陈问我可不可做一个负载均衡。我自己晚上在测服上实验了一下,在把测试主机的weblogic 的前台配置了两个后台tuxedo域,一个是测试的tuxedo服务,一个正式环境下的tuxedo 服务,我用老陈宁夏的号码去测试前台做缴费测试,由于测服上没有老陈的资料,正服才有,接口我一会能查到老陈的资料,一会又查不到。这说明welogic是在间隔调用两台tuxedo服务器的,那么这是负载均衡么?我的理解是不是,或者说不算一个合格的负载均衡。原因是党我把测服务停掉后,在前台查询老陈的号码时,一会能查,一会又报后台服务错误,这就说明weblogic域无法动态的根据域的服务的僵死或正常的情况实现合理的服务指派,它的“负载均衡”是一种类似随机闭着眼睛的分配。其实它的这种做法我们也是完全可以理解的,一个域和其他的域通信,它只会知道其他两个域是否处于激活状态,而根本不知道其他域下的每个服务的生存状态,所以调用服务时只能随机选择一个激活的域。负载均衡实际上是集群要做的事,一个集群可以组成一个域。在集群中,每台服务器的服务的状态系统都是知道,所以这时候的负载均衡才完善。

负载均衡设备主要参数配置说明

(初稿)Radware负载均衡设备 主要参数配置说明 2007年10月 radware北京代表处

目录 一、基本配置 (3) 1.1 Tuning配置 (3) 1.2 802.1q配置 (4) 1.2 IP配置 (6) 1.3 路由配置 (7) 二、四层配置 (8) 2.1 farm 配置 (8) 2.2 servers配置 (10) 2.3 Client NAT配置 (11) 2.4 Layer 4 Policy配置 (16) 三、对服务器健康检查 (18) 3.1 基于连接的健康检查 (19) 3.2 高级健康检查 (21) 四、常用系统命令 (25)

一、基本配置 Radware负载均衡设备的配置主要包括基本配置、四层配置和对服务器健康检查配置。注:本文档内容,用红色标注的字体请关注。 1.1 Tuning配置 Rradware设备tuning table的值是设备工作的环境变量,在做完简单初始化后建议调整tuning值的大小。调整完tuning table后,强烈建议,一定要做memory check,系统提示没有内存溢出,才能重新启动设备,如果系统提示内存溢出,说明某些表的空间调大了,需要把相应的表调小,然后,在做memory check,直到没有内存溢出提示后,重启设备,使配置生效。 点击service->tuning->device 配置相应的环境参数,

在做一般的配置时主要调整的参数如下:Bridge Forwarding Table、IP Forwarding Table、ARP Forwarding Table、Client Table等。 Client NAT Addresses 如果需要很多网段做Client NAT,则把Client NAT Addresses 表的值调大。一般情况下调整到5。 Request table 如果需要做基于7层的负载均衡,则把Request table 的值调大,建议调整到10000。 1.2 80 2.1q配置 主要用于打VLAN Tag Device->Vlan Tagging

Tuxedo日常监控维护培训-v1-0

Tuxedo日常监控维护培训手册 (V1.0)

修订记录

目录 1.引言 (1) 1.1. 编写目的 (1) 1.2. 参考资料 (1) 2.tuxedo常用操作 (1) 2.1. tuxedo服务的正常启动和停止. (1) 2.2. 查看tuxedo的版本信息 (2) 2.3. tmadmin控制台进入和退出: (2) 2.4. 查看服务信息psr (3) 2.5. 查看交易信息psc (4) 2.6. 查看队列信息pq (5) 2.7. 查看客户端信息pclt (5) 2.8. 查看部分统计信息bbs (6) 2.9. 设置为观察某个节点的进程信息default (6) 2.10. 查看消息发送状态pnw (7) 2.11. dmadmin域控制台的进入和退出: (7) 2.12. 手动连接域 (8) 2.13. 查看域网关的连接情况 (8) 3.tuxedo日常维护 (8) 3.1. 对ubb文件只做语法检查(不真正的load成TUXCONFIG) (8) 3.2. 对dm文件只做语法检查(不真正的load成DMXCONFIG) (9) 3.3. 反编译tuxconfig 文件和dmxconfig文件 (9) 3.4. 如何清除IPC资源 (9) 3.5. sh命令直接执行tuxedo操作 (9) 3.6. 启动tlisten服务 (9) 3.7. 启动多机中备机的BBL (9) 4.tuxedo注意事项、常见问题及解决方法 (10) 4.1. WSL配置参数注意 (10) 4.2. UBB文件中MAX的配置注意 (10) 4.3. tuxedo WS 的配置注意 (10) 4.4. Can’t attach BBL (10) 4.5. 运行一段时间交易失败 (11) 4.6. 常见Tuxedo错误号 (11)

TD-LTE-负载均衡参数优化

负载均衡MLB方案验证与建议配置参数 1.背景描述 随着LTE业务的不断的发展,热点区域、高业务量区域、景区突发高用户数区域等相继出现。针对容量不足问题,小区扩容、站点新建等措施不断开展,而通过监控现网KPI指标发现,同覆盖小区间的容量差异问题日益严重,一个因资源耗尽而无法使用正常业务,另一个却因空闲而资源浪费。 移动性负载均衡功能作为业务分担的有效策略,在早期版本中已实现落地。由最开始的PRB利用率触发方式,到现在的仅用户数触发和PRB与用户数联合触发方式等多种策略方案,为解决业务分担不均问题,提供了的有力的解决方案。 MLB方案在实际落地过程中,室分同覆盖场景的优化效果相对明显,但针对宏站同覆盖场景,却收效甚微。为研究问题原因,解决宏站同覆盖业务分担不均问题,针对MLB方案涉及的相关参数进行充分验证,指导后续优化并推广应用。 2.方案概述 2.1. 基本流程 MLB流程整体分为三个阶段如下: 第一步:本区监测负载水平,当负载超过算法触发门限时,触发MLB算法,交互邻区负载信息,作为算法输入。 第二步:筛选可以作为MLB的目标邻区和执行UE 第三步:基于切换或者重选完成MLB动作。 2.2. 适用场景 异频负载均衡的主要适用场景包括如下几类: ?同站同覆盖场景 ?同站大小覆盖场景

?同站交叠覆盖场景 ?异站交叠覆盖场景 ?宏微站交叠覆盖场景 3.实际问题 3.1. 异频策略 当前温州现网总体的FD频段策略如下: 1)D频段重选优先级高于F频段 2)F频段异频启测A2门限普遍为-82dBm,D频段为-96dBm 该策略的主要目的为F频段作为连续覆盖层,D频段作为容量层,用户在共覆盖区域优先主流D频段小区。由此,当区域用户集中增加时,D频段小区容易吸收过多用户,而F频段小区因启测门限过高而驻留能力偏弱,导致出现一个过忙一个过闲的现象。 3.2. MLB当前策略 针对如上异频策略,前期工作也已经采取了相关负载均衡的优化,但实际效果远没有达到预期。前期的主要策略如下: 1、打开异频负载均衡开关,选择仅用户数触发方式 2、开启连接态用户负载均衡,未开启空闲态用户负载均衡 3、自定义调整用户数(异频负载均衡用户数门限+负载均衡用户数偏置)触发门 限,一般选取同覆盖区域每小区平均用户数为触发门限

F5 BIG-IP负载均衡器配置实例与Web管理界面

前言:最近一直在对比测试F5 BIG-IP和Citrix NetScaler负载均衡器的各项性能,于是写下此篇文章,记录F5 BIG-IP的常见应用配置方法。 目前,许多厂商推出了专用于平衡服务器负载的负载均衡器,如F5 Network公司的BIG-IP,Citrix公司的NetScaler。F5 BIG-IP LTM 的官方名称叫做本地流量管理器,可以做4-7层负载均衡,具有负载均衡、应用交换、会话交换、状态监控、智能网络地址转换、通用持续性、响应错误处理、IPv6网关、高级路由、智能端口镜像、SSL加速、智能HTTP压缩、TCP优化、第7层速率整形、内容缓冲、内容转换、连接加速、高速缓存、Cookie加密、选择性内容加密、应用攻击过滤、拒绝服务(DoS)攻击和SYN Flood保护、防火墙—包过滤、包消毒等功能。 以下是F5 BIG-IP用作HTTP负载均衡器的主要功能: ①、F5 BIG-IP提供12种灵活的算法将所有流量均衡的分配到各个服务器,而面对用户,只是一台虚拟服务器。 ②、F5 BIG-IP可以确认应用程序能否对请求返回对应的数据。假如F5 BIG-IP后面的某一台服务器发生服务停止、死机等故障,F5会检查出来并将该服务器标识为宕机,从而不将用户的访问请求传送到该台发生故障的服务器上。这样,只要其它的服务器正常,用户的访问就不会受到影响。宕机一旦修复,F5 BIG-IP就会自动查证应用已能对客户请求作出正确响应并恢复向该服务器传送。 .1

③、F5 BIG-IP具有动态Session的会话保持功能。 ④、F5 BIG-IP的iRules功能可以做HTTP内容过滤,根据不同的域名、URL,将访问请求传送到不同的服务器。 .2

TUXEDO简介及命令介绍

Tuxedo是一个客户机/服务器的―中间件‖产品,它在客户机和服务器之间进行调节,以保证正确地处理事务。Tuxedo是一个事务处理(TP)监督器,它管理联机事务处理(OLTP)系统(参见―事务处理‖)操作的事务。客户通过结构化查询语言(SQL)调用,或其它类型的请求,产生对服务器的请求。这个事务处理监督器确信,正确地进行了修改,以保证数据的完整性。这在一个事务可以改变多个位置的数据库的分布式数据库环境是非常重要的。这个事务处理监督器使用双阶段提交,以保证所有的数据库都已经接收和认可了这些数据的正确性。否则,这个数据库返回它的事务前状态。 事务监督器从前都是与大的大型计算机系统联系在一起的,但是Tuxedo的设计是为了在不昂贵的基于UNIX的系统上运行。AT&T最初是作为它自己使用的联机事务处理开发Tuxedo的。虽然Tuxedo必须在U-NIX系统上运行,但是它可以与DOS、OS/2、Windows和UNIX客户一起工作。它还使用通用的通信协议,如传输控制协议/因特网协议(TCP/IP)和网络基本输入输出系统(NetBIOS),并且可以在这些环境提供分布式处理支持。例如,它可以根据请求的类型,服务请求从一个客户选择路由到一个特定的服务器。Tuxedo的基本特征是它的联机事务处理系统,但是,Tuxedo也工作于集成关系型的平面文件,以及层次数据库系统。 相关条目:Connectionless and Connection-Oriented Transactions无连接和面向连接事务;Transaction Processing 事务处理。 Tuxedo作为电子商务交易平台,它允许客户机和服务器参与一个涉及多个数据库协调更新的交易, 并能够确保数据的完整性。BEA Tuxedo一个特色功能是能够保证对电子商务应用系统的不间断访问。 它可以对系统组件进行持续的监视,查看是否有应用系统、交易、网络及硬件的故障。 一旦出现故障,BEA Tuxedo会从逻辑上把故障组件排除,然后进行必要的恢复性步骤。 BEA Tuxedo根据系统的负载指示,自动开启和关闭应用服务,可以均衡所有可用系统的负载, 以满足对应用系统的高强度使用需求。借助DDR(数据依赖路由), BEA Tuxedo可按照消息的上下文来选择消息路由。其交易队列功能, 可使分布式应用系统以异步―少连接‖方式协同工作。 BEA Tuxedo LLE安全机制可确保用户数据的保密性, 应用/交易管理接口(ATMI)为50多种硬件平台和操作系统提供了一致的应用编程接口。 BEA Tuxedo基于网络的图形界面管理可以简化对电子商务的管理, 为建立和部署电子商务应用系统提供了端到端的电子商务交易平台。

通过wtc使tuxedo与weblogic通信开发

标题:通过wtc、jolt进行tuxedo与weblogic通信开发 [评论] 作者:李振嘉(dev2dev ID:lizhenjia) (一)摘要 bea tuxedo与weblogic作为业界优秀的交易与应用服务器中间件产品,在电信,银行,金融等领域广泛应用,通常由tuxedo处理系统的核心业务,weblogic将业务应用扩展到internet平台,实现电子商务,由weblogic调用tuxedo的服务或者由tuxedo的服务调用通过weblogic部署的ejb,所以tuxedo与weblogic 之间的互连通信会经常遇到,本文通过2个例子介绍tuxedo与weblogic通信的配置与开发,两个例子分别通过wtc(weblogic tuxedo connector)、jolt实现weblogic与tuxedo通信的配置与开发.本文所有例子程序与配置均在Sun Solaris,weblogic8.1,tuxedo8.0平台上进行,如在windows等其他平台开发配置方法大同小异;另外为了减少篇幅文中涉及的例子代码没有全部罗列,只选择粘贴了关键部分的代码. (二)通过wtc进行tuxedo与weblogic通信的配置与开发 1)域间通信以及wtc介绍 Tuxedo的域间通信进程介绍 Wtc是tuxedo通过域间通信实现的,所以需要tuxedo启动用于域间通信的进程,介绍wtc之前先介绍以下几个域间通信的进程. *DMADM(DOMAIN ADMINISTRATOR SERVER) 管理域的server,在运行时管理BDMCONFIG,对已登记的gateway group提供支持,在tuxedo系统中,只能有一个DMADM进程,且不能对它采用MSSQ,不能有REPLYQ. *GWADM(GATEWAY ADMINISTRATOR SERVER)

tuxedo基本操作atmi介绍

系统自带authsvr服务进程,和两个子例程,tpsvrinit(),tpsvrdone。 authsvr:客户端调用tpinit进行认证时,由交易TPAPPAUTH回应。 服务端自动调用tpsvrinit,可以在函数中进行数据库连接和处理命令行参数。 结束时tpsvrdone也被自动调用,可以在函数中断开数据库连接。 这两个例程分别在进程开始时和进程将要结束时,被自动调用。 服务端编程指导: 交易内一次只能接收一个请求,发送一个响应。 交易必须以tpretrurn, tpforward结束。 或交易内使用了tpacall,在返回或转发前,要么等待回应,要么使用tpcancel。 tpreturn一旦被调用,控制权就转移到main函数,未进行显示收取的响应会被丢弃,此时客户端会收到错误。 客户端调用tpcall后,若服务端此时对应的tpreturn成功返回,客户端tpcall才能返回。 客户端调用tpacall后,若服务端此时对应的tpreturn成功返回,客户端tpgetrply才能返回。返回的数据,可由客户端从指针*data处取得。 tpforward调用时,程序逻辑应保证之前的处理都正确,响应被收到。被调用后,交易不再等待响应。main函数取得控制权。被请求的另一个交易负责响应原来的请求。不能将请求转发到自身。 tpreturn 的参数: rval: 表明交易是否成功执行。 rcode:是应用自定义的返回值。客户端可通过tpurcode获得tpreturn的rcode值,而不论交易是否成功。 data: 该缓冲区由客户端传递,服务端可以将回应数据写至此地址。也可以进行tprealloc.而不能tpfree. 服务端也可以自行tpalloc一个缓冲区,并返回给缓冲区,但需要自行若管理。如果发送的数据长度大于已分配的,tuxedo会自动扩大缓冲。 len: 用来指示响应缓冲的长。客户端可据此得知数据是否有变化。 如果客户端需要收到一个响应,而tpreturn自身处理时出错,这时tpcall或tpgetrply会失败,客户端应检查tperrno. 此时客户端的data缓冲区没有变化。若交易返回的消息不符客户端要求,则无法判断应用状态,此时原来的缓冲区保持不变。如果交易超时,响应数据不会被发送。 发布与取消交易名: 当一个服务进程被启动后,它会根据配置文件来向公告板上广告自己有交易名。这通常由buildserver命令执行时完成。 tpcall:

软件负载均衡配置方案V1.0

在线考试系统负载均衡配置方案 目录 方案背景 (3)

运行环境要求 (3) 硬件要求 (3) 软件要求 (3) 配置方案 (4) 软硬件负载均衡比较 (7)

方案背景 在线考试系统的软件和需求分析已经结束。针对于此,给出此配置方案,硬件的要求和运行效果都将详细列明指出。 运行环境要求 数据库服务器内存要求:建议16GB以上 客户端内存要求:建议256M以上 应用服务器内存要求:建议8G以上 硬件要求 软件要求 应用服务器: ●OS:Microsoft Windows 2000 Server (Advance Server) ●Microsoft Windows 2003 Server 数据库服务器: DBMS:SQL SERVER2008

客户端: OS:Windows 2000、Windows XP、Windows Vista 浏览器:IE6以上 配置方案 一台服务器: 一台服务器的情况,硬件配置: 用户同时在线数:2000-5000。最优化最稳定的范围在3500人左右。 五台服务器软件负载均衡 用户同时在线数:6000-15000。最优化最稳定的范围在7000人左右。 如果五台服务器支撑在线测试系统的运行,那么会考虑到采用apache+tomcat的方式来做负载均衡,确保系统运行的稳定性和准确性。 负载均衡说明图:

五-十台服务器硬件负载均衡

用户同时在线数:6000-40000。最优化最稳定的范围在15000-30000人左右。 如果五台以上服务器支撑在线测试系统的运行(最多十台),那么会考虑到采用硬件的方式来做负载均衡,确保系统运行的稳定性和准确性。 负载均衡说明图:

思科负载均衡的配置实例

1.负载均衡的介绍 软/硬件负载均衡 软件负载均衡解决方案,是指在一台或多台服务器相应的操作系统上,安装一个或多个附加软件来实现负载均衡,如DNS 负载均衡等。它的优点是基于特定环境、配置简单、使用灵活、成本低廉,可以满足一般的负载均衡需求。硬件负载均衡解决方案,是直接在服务器和外部网络间安装负载均衡设备,这种设备我们通常称之为负载均衡器。由于专门的设备完成专门的任务,独立于操作系统,整体性能得到大量提高,加上多样化的负载均衡策略,智能化的流量管理,可达到最佳的负载均衡需求。一般而言,硬件负载均衡在功能、性能上优于软件方式,不过成本昂贵。[1] 本地/全局负载均衡 负载均衡从其应用的地理结构上,分为本地负载均衡和全局负载均衡。本地负载均衡是指对本地的服务器群做负载均衡,全局负载均衡是指在不同地理位置、有不同网络结构的服务器群间做负载均衡。本地负载均衡能有效地解决数据流量过大、网络负荷过重的问题,并且不需花费昂贵开支购置性能卓越的服务器,可充分利用现有设备,避免服务器单点故障造成数据流量的损失。有灵活多样的均衡策略,可把数据流量合理地分配给服务器群内的服务器,来共同负担。即使是再给现有服务器扩充升级,也只是简单地增加一个新的服务器到服务群中,而不需改变现有网络结构、停止现有的服务。全局负载均衡,主要用于在一个多区域拥有自己服务器的站点,为了使全球用户只以一个IP地址或域名就能访问到离自己最近的服务器,从而获得最快的访问速度,也可用于子公司分散站点分布广的大公司通过Intranet (企业内部互联网)来达到资源统一合理分配的目的。 更高网络层负载均衡 针对网络上负载过重的不同瓶颈所在,从网络的不同层次入手,我们可以采用相应的负载均衡技术来解决现有问题。更高网络层负载均衡,通常操作于网络的第四层或第七层。第四层负载均衡将一个Internet上合法注册的IP地址,映射为多个内部服务器的IP地址,对每次TCP连接请求动态使用其中一个内部IP地址,达到负载均衡的目的。第七层负载均衡控制应用层服务的内容,提供了一种对访问流量的高层控制方式,适合对HTTP服务器群的应用。第七层负载均衡技术通过检查流经的HTTP报头,根据报头内的信息来执行负载均衡任务。 [编辑本段] 网络负载平衡的优点 1、网络负载平衡允许你将传入的请求传播到最多达32台的服务器上,即可以使用最多32台服务器共同分担对外的网络请求服务。网络负载平衡技术保证即使是在负载很重的情况下它们也能作出快速响应。 2、网络负载平衡对外只须提供一个IP地址(或域名)。 3、如果网络负载平衡中的一台或几台服务器不可用时,服务不会中断。网络负载平衡自动检测到服务器不可用时,能够迅速在剩余的服务器中重新指派客户机通讯。此保护措施能够帮助你为关键的业务程序提供不中断的服务。可以根据网络访问量的增多来增加网络负载平衡服务器的数量。 4、网络负载平衡可在普通的计算机上实现。在Windows Server 2003中,网络负载平衡的应用程序包括Internet信息服务(IIS)、ISA Server 2000防火墙与代理服务器、VPN虚拟专用网、终端服务器、Windows Media Services(Windows视频点播、视频广播)等服务。同时,网络负载平衡有助于改善你的服务器性能和可伸缩性,以满足不断增长的基于Internet 客户端的需求。

TUXEDO配置参数详解

TUXEDO配置参数详解 2007-07-10 09:39:47 大中小 TUXEDO应用系统的配置 3.1 TUXEDO应用系统的常见配置 配置文件UBBCONFIG介绍 一个TUXEDO应用系统的所有资源都在一个文本文件中进行定义,该文件称为UBBCONFIG,在配置完成后,UBBCONFIG被编译成一个二进制的文件TUXCONFIG.在TUXEDO系统启动时,从该文件中读取系统的配置信息。UBBCONFIG文件类似WINDOWS下的*.INI文件。它包括以下9大部分, 我们称之为节,RESOURCES,MACHIENS,GROUPS 这三个节必须的,其他的节是可选的。 RESOURCES(必需): 与整个系统有关的配置信息 MACHINES(必需): 一个TUXEDO应用系统可以跨越多台服务器,在该节中配置与每台服务 器有关的信息 GROUPS(必需): TUXEDO中的服务可被分为多个组,在该节中配置与组有关的信息SERVERS(可选): 与SERVER有关的信息在该节配置 SERVICES(可选): 与SERVICES有关的信息在该节配置 NETWORK(可选):与网络有关的信息在该节配置 ROUTING(可选) :路由规则在该节配置 NETGROUPS(可选):与网络分组有关的信息在该节配置 名称解释: TUXEDO应用系统 一个TUXEDO应用系统包括服务端,客户端,服务端安装在服务器上,客户端一般安装在PC 机上,从开发角度看,一个TUXEDO应用系统包括服务端程序,客户端程序,一个配置文件。此外,一个TUXEDO应用系统可以部署在一台服务器上,也可以部署在多台服务器上。SERVER: 服务端程序用C或COBAL编写,每一个程序文件编译成一个相应可执行文件,该可执行文件在运行时称为SERVER,它实际上就是一个进程。每个SERVER都有一个名字,也就是该进程的名字。为与TUXEDO应用系统的服务端区分,我们在本书中,我们用SERVER表示该进程,用服务端表示TUXEDO应用系统的服务端。 SERVICE: 在每个服务端程序中,主要是一个个的函数,在TUXEDO中称这些函数为SERVICE,一般 也称之为服务。在该SERVICE中实现业务逻辑,在客户端中调用这些SERVICE来实现各 种操作,如在前面的例子simpapp中,服务端程序为simpserv.c,它编译成可执行文件simperv, simpserv就是一个SERVER,该SERVER包括SERVICE:TOUPPER。 下面我们给出一个配置文件的例子: *RESOURCES IPCKEY 123456 MASTER simple UID 0 GID 0 PERM 0666

H3C负载均衡项目配置手册

XXXX负载均衡项目配置手册 杭州华三通信技术有限公司 版权所有侵权必究 All rights reserved

1 组网方案1.1 网络拓扑 1.2 负载均衡资源

注:红色表示该实服务不存在。 1.3 网络设备资源 交换机管理IP地址是:10.4.41.54/255.255.255.192; LB设备的管理IP地址是:10.4.41.34/255.255.255.192; 设备的网关是:10.4.41.62; 2 交换机S75E配置 2.1 创建VLAN及添加端口 systemview [H3C] vlan 101 //创建VLAN 101 [H3C] interface GigabitEthernet0/0/1 //进入接口G0/0/1 [H3C- GigabitEthernet0/0/1] port access vlan 101 //该端口属于vlan101 2.2 配置设备管理IP地址及默认路由 [H3C] interface Vlan-interface101 //创建VLAN 101的三层接口 [H3C -Vlan-interface101] ip address 10.4.41.54 255.255.255.192 //配置交换机管理地址[H3C -Vlan-interface101] quit [H3C] ip route-static 0.0.0.0 0.0.0.0 10.4.41.62 //配置默认路由 2.3 配置telnet登陆账号 [H3C]telnet server enable //打开设备的telnet服务 [H3C]user-interface vty 0 4 [H3C-ui-vty0-4]authentication-mode scheme //配置用户登录需要进行账户验证 [H3C]local-user h3c //创建用户名为h3c [H3C-luser-huawei]service-type telnet level 3 //该账号类型为telnet,级别为3(最高级)[H3C-luser-huawei]password cipher h3c //配置密码为h3c 注:配置登陆账号后切记不能遗忘了登陆密码; 2.4 配置内部万兆接口 S75E交换机和LB设备是通过内部的万兆接口互联的,所以需要对此接口进行配置,

TUXEDO管理配置中文说明new

Tuxedo的配置管理简要说明 Tuxedo的配置管理简要说明 (1) 一、Tuxedo基本命令 (2) 二、UBB文件配置说明 (3) 三、数据库XA设置 (8) 3.1 ORACLE XA (8) 四、Tuxedo多机方式配置要点 (9) 4.1启动tlisten (9) 4.2 ubb文件配置 (9) 4.3管理 (10) 五、用JOLT连接Tuxedo和Weblogic (11) 5.1在Tuxedo上安装、配置JOLT Server (11) 5.2 配置Weblogic Server 6.x (12) 5.3 Example setup (12) 六、TUXEDO动态配置 (13) 6.1 用tmadmin修改配置 (13) 6.2 用tmconfig更改TUXCONFIG(UBBCONFIG) (13)

一、Tuxedo基本命令 #1.设臵环境变量TUXDIR,APPDIR,TUXCONFIG,LANG(跟OS相关),LD_LIBRARY_PATH(跟OS相关) #2.编译ubb文本生成二进制配臵文件:tmloadcf –y ubbconfig #3.所有机器上运行tlisten,具体见文档中NETWORK一节 #4.启动tmboot –y #5.关闭tmshutdown –y 参数: -A 在所有机器上启动/关闭管理的Server进程 -M 只在MASTER机器上启动/关闭管理的Server进程 -i srvid启动/关闭某个server id指定的Server进程 -g grpname 启动/关闭某个server group名字指定的Server Group -S启动/关闭所有应用服务器(LMID) -s server-name启动/关闭某个server名字指定的Server进程 -l lmid option 在指定的机器上启动/关闭所有TMS进程和应用服务器(LMID) -T grpname 启动/关闭指定的server group中所有的TMS进程 -B lmid在指定的机器上启动/关闭BBL进程 -e command 指定一个程序可以当在MASTER机器上启动任何一个进程失败时执行 -c计算出当前UBB配臵的Tuxedo启动最少要占用的系统IPC资源 #用tmunloadcf > generated.ubb 可以得出目前配臵得UBB文件所有得参数值(没有设臵的有缺省值) #用tmloadcf –c或tmboot –c可以计算出当前UBB配臵的Tuxedo启动最少要占 用的系统IPC资源。

服务器负载均衡三种部署方式典型配置..

目录 服务器负载均衡三种部署方式典型配置 (2) 【应用场景】 (2) 【工作原理】 (2) 【三种方式的典型配置方法】 (3) 一、服务器负载均衡NA T模式配置 (3) 1、配置拓扑 (3) 2、拓扑说明 (3) 3、设备配置及说明 (4) 二、服务器负载均衡DR模式配置 (16) 1、配置拓扑 (16) 2、拓扑说明 (16) 3、设备配置及说明 (16) 三、服务器负载均衡NA T模式旁路部署配置 (23) 1、配置拓扑 (23) 2、拓扑说明 (23) 3、设备配置及说明 (23)

服务器负载均衡三种部署方式典型配置 服务器负载均衡部署方式可以分为三种方式:网络地址转换模式(NAT)、直接路由(DR)模式、NAT模式旁路部署。 【应用场景】 1、NA T模式应用场景:用户允许修改网络拓扑结构,此模式同时可以实现加速和流控的功 能。 2、DR模式应用场景:用户不允许修改网络拓扑结构,但是此模式配置需要修改服务器配 置。 3、NA T模式旁路模式应用场景:用户既不允许修改网络拓扑结构,也不允许修改服务器配 置。 【工作原理】 1、NAT模式:负载均衡设备分发服务请求时,进行目的IP地址转换(目的IP地址为实服务的IP),通过路由将报文转发给各个实服务。 客户端将到虚拟IP的请求发送给服务器群前端的负载均衡设备,负载均衡设备上的虚服务接收客户端请求,依次根据持续性功能、调度算法,选择真实服务器,再通过网络地址转换,用真实服务器地址重写请求报文的目标地址后,将请求发送给选定的真实服务器;真实服务器的响应报文通过负载均衡设备时,报文的源地址被还原为虚服务的虚拟IP,再返回给客户,完成整个负载调度过程。 2、DR模式:负载均衡设备分发服务请求时,不改变目的IP地址,而将报文的目的MAC 替换为实服务的MAC后直接把报文转发给实服务。 DR方式的服务器负载均衡时,除了负载均衡设备上配置了虚拟IP,真实服务器也都配置了虚拟IP,真实服务器配置的虚拟IP要求不能响应ARP请求。实服务除了虚拟IP,还需要配置一个真实IP,用于和负载均衡设备通信,负载均衡设备和真实服务器在同一个链路域内。发送给虚拟IP的报文,由负载均衡设备分发给相应的真实服务器,从真实服务器返回给客户端的报文直接通过交换机返回。

DNAT负载均衡功能配置案例

DNAT负载均衡功能配置案例 DNAT负载均衡功能配置案例(设置内网服务器对互联网提供服务) 拓扑图如附件所示。 需求说明:内网有三台http服务器(192.168.2.2/3/4)要对外提供服务,使用的外网口地址是192.168.0.2,需对外提供负载均衡的功能。后续准备还要增加邮件、ftp等服务器。同时,允许这些服务器能够方便在家休息时的网管人员能管理远程的服务器。 具体配置如下: address "cluster1" range 192.168.2.2 192.168.2.4 host "192.168.2.2" host "192.168.2.3" host "192.168.2.4" exit service "rdp" tcp dst-port 3389 timeout 1800 exit interface vswitchif1 zone "trust" ip address 192.168.2.1 255.255.255.0 manage ssh manage ping

manage http manage https exit interface ethernet0/1 zone "untrust" ip address 192.168.0.21 255.255.255.0 manage ssh manage ping manage https exit ip vrouter trust-vr ip route 0.0.0.0/0 192.168.0.1 exit policy from "trust" to "untrust" rule id 2 action permit src-addr "Any" dst-addr "Any" service "Any" exit exit policy from "untrust" to "trust" rule id 3 action permit src-addr "Any" dst-addr "Any" service "HTTP" service "FTP" service "POP3" service "PING" service "SMTP" service "rdp" service "ICMP" exit policy from "l2-trust" to "l2-trust" rule id 4 action permit src-addr "Any"

负载均衡方案及详细配置

Apache+Tomcat+mod_jk实现负载均衡方案 一、概述: 原理图: 提高系统可用性,对系统性能影响较小。对于一台服务器Down机后,可自动切换到另 最少需要两台机器,Tomcat1 和Tomcat2可在同一台服务器上。若条件允许最好是各用一台服务器。 二、详细配置步骤: 1、Apache http Server安装 32位的按照提示操作即可。 64位系统的不是安装包。 64位安装配置: 以管理员身份运行cmd 执行:httpd -k install 若无法运行并提示配置错误,请先安装vcredist_x64.exe后再执行。 安装后在Testing httpd.conf...时会报错,不影响。 httpd -k start 启动Apache、httpd -k shutdown 停止Apache 、httpd -k restart重启测试Apache:

在IE中输入:127.0.0.1 打开网页显示It work就OK 2、将Mod_jk的压缩包解压,找到mod_jk.so 复制到Apache目录下modules目录下 64位的下载mod_jk1.2.30_x64.zip 32位的下载tomcat-connectors-1.2.35-windows-i386-httpd-2.0.x.zip 3、修改Apache conf目录下的httpd.conf文件 在最后增加:Include conf/extra/mod_jk.conf 4、在conf/extra 下创建mod_jk.conf文件 增加如下: #load module mod_jk.so LoadModule jk_module modules/mod_jk.so #mod_jk config #load workers JkWorkersFile conf/workers.properties #set log file JkLogFile logs/mod_jk.log #set log level JkLogLevel info #map to the status server #mount the status server JkMount /private/admin/mystatus mystatus JkMount /* balance 5.在conf目录下创建workers.properties文件 增加:worker.tomcat1 中的tomcat1和tomcat2必须和Tomcat中的配置相同。Tomcat配置下面介召 worker.list=balance,mystatus #first worker config worker.tomcat1.type=ajp13 worker.tomcat1.host=192.168.8.204 worker.tomcat1.port=8009 #Tomcat的监听端口 worker.tomcat1.lbfactor=1 worker.tomcat1.socket_timeout=30 worker.tomcat1.socket_keepalive=1 #second worker config worker.tomcat2.type=ajp13 worker.tomcat2.host=192.168.8.204 worker.tomcat2.port=8010 #Tomcat的监听端口实验是在同一机器上做的,所以两个不同

负载均衡器配置实例与管理界面

前言:最近一直在对比测试F5BIG-IP和CitrixNetScaler负载均衡器的各项性能,于是写下此篇文章,记录F5BIG-IP的常见应用配置方法。 目前,许多厂商推出了专用于平衡服务器负载的负载均衡器,如F5Network公司的BIG-IP,Citrix公司的NetScaler。 F5BIG-IPLTM的官方名称叫做本地流量管理器,可以做4-7层负载均衡,具有负载均衡、应用交换、会话交换、状态监控、智能网络地址转换、通用持续性、响应错误处理、IPv6网关、高级路由、智能端口镜像、SSL加速、智能HTTP压缩、TCP优化、第7层速率整形、内容缓冲、内容转换、连接加速、高速缓存、Cookie加密、选择性内容加密、应用攻击过滤、拒绝服务(DoS)攻击和SYNFlood保护、防火墙—包过滤、包消毒等功能。 以下是F5BIG-IP用作HTTP负载均衡器的主要功能: ①、F5BIG-IP提供12种灵活的算法将所有流量均衡的分配到各个服务器,而面对用户,只是一台虚拟服务器。

②、F5BIG-IP可以确认应用程序能否对请求返回对应的数据。假如F5BIG-IP后面的某一台服务器发生服务停止、死机等故障,F5会检查出来并将该服务器标识为宕机,从而不将用户的访问请求传送到该台发生故障的服务器上。这样,只要其它的服务器正常,用户的访问就不会受到影响。宕机一旦修复,F5BIG-IP就会自动查证应用已能对客户请求作出正确响应并恢复向该服务器传送。 ③、F5BIG-IP具有动态Session的会话保持功能。 ④、F5BIG-IP的iRules功能可以做HTTP内容过滤,根据不同的域名、URL,将访问请求传送到不同的服务器。 下面,结合实例,配置: ①、如图,假设域名被解析到F5的外网/公网虚拟IP:(vs_squid),该虚拟IP下有一个服务器池(pool_squid),该服务器池下包含两台真实的Squid服务器(和)。 ②、如果Squid缓存未命中,则会请求F5的内网虚拟IP:(vs_apache),该虚拟IP下有一个默认服务器池 (pool_apache_default),该服务器池下包含两台真实的Apache服务器(和),当该虚拟IP匹配iRules规则时,则会访问另外一个服务器池(pool_apache_irules),该服务器池下同样包含两台真实的Apache服务器(和)。

array服务器负载均衡配置参数

项目实践过程书 1.网络环境 企业有两台服务器,做oa办公使用,其中安装了iis和sql server的应用,一台作为使用,另一台作为备份机,由于业务的扩大,单台服务器已无法满足正常的办公需求,因此需要一种机制可以使得oa系统满足正常的办公需求。 2.客户需求 客户现主要存在的问题有两个 (1)办公oa系统,需开启后台word程序,占用系统内存。但是当应用完毕后,客户请求与服务器断开,系统进程无法自动关闭。导致过多不必要的内存占用服务器的有效内存,是服务器响应应用变慢,因而导致无法正常使用。 (2)由于一台服务器作为备份服务器使用,因此一直未投入正常使用,无法达到资源的合理化运用,造成不必要的浪费。 3.解决方案 (1)由于客户两台服务器同时运行同一应用,并且需要负载应用的分配,所以使用服务器负载均衡,即可以使另一台服务器可以投入正常使用,又可以负载流量,达到应用的最大化使用,拓宽了网络带宽,解决了应用瓶颈的问题。 (2)开启服务器负载均衡的健康检查机制,保证了服务器的正常响应,并且可以实时监测服务的状态。 (3)开启ssl加速功能,由于办公oa使用的是https的网页,所以需要做ssl加速,卸载相应的程序,使请求可以更快的被响应。 (4)开启CACHE缓存功能,是一些应用通过设备记忆卡记忆,节省8相应时间。 4.具体配置 sys license "84565e19-b57c0c5f-4e4b6ab1-2ddce920-fc849aad-00000000-0055dc0b-20110829" test(config)#ip address outside 192.168.200.9 test(config)#slb real http "oa1" 192.168.200.7 80 1000 http 3 3 test(config)#slb real http "oa2" 192.168.200.8 80 1000 http 3 3 test(config)#wr mem test(config)#slb group method oas pi test(config)#slb group member oas oa1 test(config)#slb group member oas oa2 test(config)#slb virtual http vs_oa 192.168.200.232 test(config)# slb policy default vs_oa oas test(config)#health check on test(config)#ip route default 192.168.200.253 test(config)#cache on test(config)#http compression on 5.测试经过

负载均衡软件实现与硬件实现方案

该文档是word2003—word2007兼容版 软件、硬件负载均衡部署方案 目录 1、硬件负载均衡之F5部署方案 (2) 1.1网络拓扑结构 (2) 1.2反向代理部署方式 (3) 2软件负载均衡方案 (4) 2.1负载均衡软件实现方式之一- URL重定向方式 (4) 2.2负载均衡软件实现方式之二- 基于DNS (5) 2.3负载均衡软件实现方式之三- LVS (8) 2.4负载均衡软件实现方式之四- 专业负载均衡软件 (16) 总结: (16)

1、硬件负载均衡之F5部署方案 对于所有的对外服务的服务器,均可以在BIG-IP上配置Virtual Server实现负载均衡,同时BIG-IP可持续检查服务器的健康状态,一旦发现故障服务器,则将其从负载均衡组中摘除。 BIG-IP利用虚拟IP地址(VIP由IP地址和TCP/UDP应用的端口组成,它是一个地址)来为用户的一个或多个目标服务器(称为节点:目标服务器的IP地址和TCP/UDP应用的端口组成,它可以是internet的私网地址)提供服务。因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。根据服务类型不同分别定义服务器群组,可以根据不同服务端口将流量导向到相应的服务器。BIG-IP连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG-IP根椐目标服务器之间性能和网络健康情况,选择性能最佳的服务器响应用户的请求。如果能够充分利用所有的服务器资源,将所有流量均衡的分配到各个服务器,我们就可以有效地避免“不平衡”现象的发生。 利用UIE+iRules可以将TCP/UDP数据包打开,并搜索其中的特征数据,之后根据搜索到的特征数据作相应的规则处理。因此可以根据用户访问内容的不同将流量导向到相应的服务器,例如:根据用户访问请求的URL将流量导向到相应的服务器。 1.1网络拓扑结构 网络拓扑结构如图所示:

相关文档
最新文档