中国银行零售贷款在线审批系统应用Radware实现负载均衡

中国银行零售贷款在线审批系统应用Radware实现负载均衡
中国银行零售贷款在线审批系统应用Radware实现负载均衡

中国银行零售贷款在线审批系统应用

Radware实现负载均衡

1.项目介绍

中国银行,作为2008年奥运会的银行合作伙伴,始终致力于为集团企业客户提供安全、稳定的基于INTERNET的财务管理平台。“零售贷款在线审批系统”作为网络银行系统的一部分,在实现网上银行与后台业务系统自动联机处理的基础上,与其它系统共同为客户提供实时高效、覆盖全国、7 X 24小时的财务管理、资金集中管理和现金管理服务。

2.用户需求

用户系统采用业界标准的三层架构,即数据库,中间件和前端WEB服务器。用户的请求通过HTTPS加密访问业务系统。数据经过处理后,再经过HTTPS加密返回用户端。为此,用户业务系统有以下需求必须满足:

1. 可靠性需求:如何屏蔽因服务器故障造成业务中断,是用户关系的首要问题。

2. 安全性要求:作为网上在线交易,安全性是客户最关心的问题。

3. 高性能需求:如何解决单台服务器性能问题以及如何实现SSL的加速处理,以摆脱服务器

的性能压力。

4. 扩充性要求:随着业务量的逐步增加,如何平滑扩展业务,扩充生产处理能力,是用户开始关

心的问题。

3.Radware解决方案描述

通过RadWare”应用前端解决方案”并结合以下专业设备的使用,满足用户生产系统的需求,如下图所示:

AppXcel SSL加速设备(简称AX):通过使用专用的SSL加速设备,将生产服务器从繁重的解密工作中解放出来,使企业用户HTTPS访问的速度得以大幅度提升。

AppDirector(简称AD):服务器负载均衡设备:通过对生产系统的中间件、前端WEB服务器组和APPXECEL SSL加速设备负载均衡,保证生产系统7 X 24小时不间断服务。

企业客户通过HTTPS加密协议访问生产系统。加密数据首先被AD平均转发到两台AX设备,对数据进行解密处理,然后再送回AD设备,再次将明文流量平均分配到后台业务系统处理(前端WEB服务器组和中间件服务器组)。

在AD将数据转发前,通过”应用前端解决方案”中多种技术的综合运用,要对服务器进行”健康检测”和”性能评估,保证将数据发送到性能最好的服务器上。同时,也能在最快的时间里发现服务器硬件故障、操作系统故障或应用业务故障,并将后续流量只发送到正常服务器上处理,为系统提供高效和稳定的保障。

4.Radware为客户带来的价值

1. AppDirector为中国银行提供结构优化、容错冗余、可扩展性以及应用级安全性,从而实现

快速、可靠、安全的应用交付。

2. 使用AppXcel进行HTTPS加速后,生产服务器压力减少80%,用户基本感觉不到因加密数

据带来的业务延迟。

3. 当服务器出现故障或需要维护时,通过解决方案中特有技术,可以将请求全部导向工作正常

的服务器上,对用户完全透明,不会影响上网操作。

4. 当需要扩充性能时,只需在交换机后面添加更多的服务器即可,无须对服务器做特使复杂配

置,减少维护成本和风险。

5. AppXcel采用旁路部署方式,易于将来实现平滑扩展和升级。

6. 实现多台业务服务器同时工作,提高性能,提高设备利用率。

5.Radware竞争优势

1. Radware是专注于负载均衡领域的公司,在产品研发及技术更新上投入更多精力,适应技

术的发展需求。

2. 提供性能强大,稳定可靠的基于硬件的负载均衡交换机。Radware提供的独特的健康检查

方法,通过模仿用户的实际访问过程,准确判断应用和WEB服务器的健康状态。

3. AppDirector 采用先进的Layer 4-7 策略和粒度级应用智能来实现端到端的应用智能联

网,使服务器基础结构与应用前端的需求保持一致,消除流量浪涌、服务器瓶颈、连接断开和宕机现象,从而确保应用访问、完整的应用连续性

4. AppXcel 是一种高效能的应用加速器,它利用一套综合性加速技术来提高应用性能,包括

压缩、缓存、连接池、TCP 优化、SSL 卸载和无线加速,可实现最快的应用程序和事务响应时间,在局域网、广域网和互联网中提供最佳的最终用户体验。把基于web 的应用速度提高多达500%,从而实现立竿见影的投资回报。

性能测试结果分析 分析原则: 具体问题具体分析(这是由于不同的应用系统,不同的测试目的,不同的性能关注点) 查找瓶颈时按以下顺序,由易到难。 服务器硬件瓶颈-〉网络瓶颈(对局域网,可以不考虑)-〉服务器操作系统瓶颈(参数配置)-〉中间件瓶颈(参数配置,数据库,web服务器等)-〉应用瓶颈(SQL语句、数据库设计、业务逻辑、算法等) 注:以上过程并不是每个分析中都需要的,要根据测试目的和要求来确定分析的深度。对一些要求低的,我们分析到应用系统在将来大的负载压力(并发用户数、数据量)下,系统的硬件瓶颈在哪儿就够了。 分段排除法很有效 分析的信息来源: 1)根据场景运行过程中的错误提示信息 2)根据测试结果收集到的监控指标数据 一.错误提示分析 分析实例: 1)Error:Failed to connect to server “https://www.360docs.net/doc/ed17689281.html,″: [10060] Connection Error:timed out Error: Server “https://www.360docs.net/doc/ed17689281.html,″ has shut down the connection prematurely 分析: A、应用服务死掉。 (小用户时:程序上的问题。程序上处理数据库的问题) B、应用服务没有死 (应用服务参数设置问题)

例:在许多客户端连接Weblogic应用服务器被拒绝,而在服务器端没有错误显示,则有可能是Weblogic中的server元素的 AcceptBacklog属性值设得过低。如果连接时收到connection refused消息,说明应提高该值,每次增加25% C、数据库的连接 (1、在应用服务的性能参数可能太小了;2、数据库启动的最大连接数(跟硬件的内存有关)) 2)Error: Page download timeout (120 seconds) has expired 分析:可能是以下原因造成 A、应用服务参数设置太大导致服务器的瓶颈 B、页面中图片太多 C、在程序处理表的时候检查字段太大多 二.监控指标数据分析 1.最大并发用户数: 应用系统在当前环境(硬件环境、网络环境、软件环境(参数配置))下能承受的最大并发用户数。 在方案运行中,如果出现了大于3个用户的业务操作失败,或出现了服务器shutdown的情况,则说明在当前环境下,系统承受不了当前并发用户的负载压力,那么最大并发用户数就是前一个没有出现这种现象的并发用户数。 如果测得的最大并发用户数到达了性能要求,且各服务器资源情况良好,业务操作响应时间也达到了用户要求,那么OK。否则,再根据各服务器的资源情况和业务操作响应时间进一步分析原因所在。 2.业务操作响应时间: 分析方案运行情况应从平均事务响应时间图和事务性能摘要图开始。使用“事务性能摘要”图,可以确定在方案执行期间响应时间过长的事务。 细分事务并分析每个页面组件的性能。查看过长的事务响应时间是由哪些页面组件引起的?问题是否与网络或服务器有关? 如果服务器耗时过长,请使用相应的服务器图确定有问题的服务器度量并查明服务器性能下降的原因。如果网络耗时过长,请使用“网络监视器”图确定导致性能瓶颈的网络问题

深信服应用交付AD 深信服,作为中国最大最有竞争力的前沿网络设备供应商,为3万多家客户提供了稳定可靠的访问,每秒钟经过深信服AD处理的业务交易量高达数千万笔,在中国入选世界500强的企业中,85%以上企业都是深信服的客户。 中国第一品牌 全球知名分析机构Frost & Sullivan发布的《2013年中国应用交付产品(ADC)市场分析报告》显示:深信服应用交付AD在2013年依然保持强劲增长,在中国市场占比中,超越Radware,升至第二,与F5再次缩小距离,并继续保持国产厂商第一的领导地位。 ④报告数据显示,Sangfor(深信服)2013年在中国地区应用交付市场 的份额达到14.1%,排名升至第二位。 ④自2009年推出到市场上以来,深信服AD产品由第九名一跃进入三 甲,在国产厂商中名列前茅。AD产品广泛应用于国家部委单位的核心 系统与电信运营商的生产网。 ④优异的市场表现,也促使深信服成为唯一入选Gartner应用交付魔力 象限的国产厂商,分析师对深信服产品的安全性评价尤为突出。 面向未来的应用交付产品 随着大数据时代的来临,即便是当前强劲的10Gbps性能设备在面对数十G业务量的并发处理时,也难免也会捉襟见肘。顺应网络发展的趋势,深信服AD系列产品采取基于原生64位系统的软硬架构设计,在确保高性能处理能力的同时,提供电信级的设备可靠性。 深信服AD可帮助用户有效提升 ?应用系统的处理性能与高可用性 ?多条ISP出口线路的访问通畅、均衡利用 ?分布式数据中心的全局调度、业务永续 ?业务应用的安全发布与高效访问 ④兼顾高性能与高稳定性的架构设计,原生64位内核OS,数据面与控制面相分离,确保软件系统的稳定高效。 ④非对称多处理架构发挥出多核硬件平台的极致性能,实现高达60Gbps的单机性能处理性能。 ④提供100Gbps 以上业务量的性能扩容方案,以满足运营商和金融行业对于扩展性与高可用性的追求。

XXXXXXXX 分布式采集测试报告

目录 1. 测试结论概述 (4) 2. 测试对象描述 (4) 2.1 测试对象描述 (4) 2.2 测试环境描述 (4) 2.2.1 测试环境 (4) 2.2.2 测试时间 (4) 2.2.3 测试人员 (4) 3. 测试策略回顾 (5) 3.1 测试重点 (5) 3.2 测试用例设计 (5) 4. 迭代验收测试对象评价 (5) 4.1 本轮测试发现问题汇总及分析 (5) 4.2 遗留问题汇总 (6) 4.3 测试对象各模块质量评估 (6) 5. 验收测试过程评估 (6) 5.1 测试执行评估 (6) 5.2 与需求的符合性评价 (6) 5.3 风险反馈 (6) 6. 附件 (7) 6.1 遗留问题统计 (7) 6.2 验收测试用例执行结果 (7) 7. 参考引用与术语 (8)

1.测试结论概述 本测试报告是针对分布式采集,目的在于总结分布式测试工作以及分析测试结果。测试结论概述:分布式基本功能验证通过,无致命问题,遗留DI为1.1,问题单一次性回归通过率100%。预计参考人员有测试人员、开发人员、项目管理者、其他质量管理人员。 2.测试对象描述 2.1测试对象描述 本轮测试重点是分布式环境下,配置远端、近端M2000 R11EMS采集实例,性能文件采集、解析、生成数据质量报告及网元操作日志采集;分布式环境下手动补采测试。 2.2测试环境描述 2.2.1 测试环境 2.2.2 测试时间 测试时间如下: 验收测试:2013/11/08-2013/11/12 共计3天 Bug回归测试:2013/11/14 共计1天 2.2.3 测试人员 张三

Radware测试负载均衡 目录 -.Web服务器负载均衡 (2) 1.1业务需求 (2) 1.2配置负载均衡 (2) 1.2.1配置real服务器 (2) 1.2.2配置server group (6) 1.2.3配置virtual service (8) 1.2.4配置PIP(源NAT) (10) 1.2.5配置vrrp (12) 1.2.6配置vrrp group组 (12) 1.3测试 (14) 1.3.1web服务器1的配置 (14) 1.3.2web服务器2的配置 (14) 1.3.3负载均衡测试(round robin) (15) 1.3.4关闭一台服务器 (16) 1.3.5关闭所有节点 (16) 二.FTP服务器负载均衡 (17) 2.1业务需求 (17) 2.2新加两台ftp server (18) 2.3测试ftp server的负载均衡 (18) 2.4关闭一台ftp server (20) 2.5开启ftpserver (20) 2.6关闭所有节点ftpserver (20) 以下组网称为双臂组网,是目前使用比较多的组网方法,逻辑上看,它属于路由方式。此种组网方式可以实现完全的主备切换。单臂时,使用一条物理连接;双臂时,使用2条物理链路,分别连通内网服务器和外网防火墙或路由器。| 三、三角传输

对于流媒体类型的应用,会采用三角传输组网,本地三角传输也称路径外回应。它是为提高整体网络性能的一种解决方案。目前有MTV项目使用此组网方法。在此暂不做详细介绍。 -.Web服务器负载均衡 1.1业务需求 服务器:10.163.66.11/10.163.66.12port:80 对外提供服务IP:10.163.65.20 源NAT地址:10.163.65.5(主),10.163.65.6(备) 1.2配置负载均衡 最基本的负载均衡配置包括以下几部分:创建Server,创建Group,创建Virtual Servers,最后创建Virtual Service。这几部分配置完成后,就可以实现基本的负载均衡功能了。每步配置中均需要将状态设置为enable才能使用。 1.2.1配置real服务器 服务器(Real Server)是Group下面的元素,隶属于Group。定义服务器的名称,IP地址,以及服务的端口号。服务器的网关通常指向Alteon的地址,而不是防火墙,Alteon是双机时,这个地址是浮动IP。 添加第一台服务器

深信服负载均衡AD 日常维护手册

文档仅供参考,不当之处,请联系改正。 深信服科技 AD日常维护手册 深信服科技大客户服务部 04 月

■版权声明 本文中出现的任何文字叙述、文档格式、插图、照片、方法、过程等内容,除另有特别注明,版权均属深信服所有,受到有关产权及版权法保护。任何个人、机构未经深信服的书面授权许可,不得以任何方式复制或引用本文的任何片断。

目录 第1章 SANGFOR AD设备的每天例行检查 (5) 1.1例行检查前需准备: (5) 1.2设备硬件状态例行检查项 (5) 1.2.1设备状态灯的检查 (5) 1.2.2接口指示灯的检查 (6) 1.2.3设备CPU运行检查 (6) 1.2.4设备异常状况检查 (7) 1.3日常维护注意事项 (7) 1.4升级客户端的使用 (8) 第2章 SANGFOR AD设备的每周例行检查 (12) 2.1控制台账号安全性检查 (12) 2.2关闭远程维护 (12) 2.3设备配置备份 (12) 第3章常见问题排错 (14) 3.1无法登陆设备控制台 (14) 3.2 AD新建了虚拟服务,但是无法访问? (14) 3.3链路负载,上网时快时慢,DNS有时解析不了域名 (15) 3.4 DNS策略不生效 (16) 3.5 DNS代理不生效 (17) 3.6智能路由不生效 (17) 3.7登陆应用系统,一会儿弹出并提示重新登陆 (17) 技术支持 (18)

第1章SANGFOR AD设备的每天例行检查 1.1 例行检查前需准备: (1)安装了WINDOWS系统的电脑一台 (2)设备与步骤1所描述的电脑在网络上是可连通的 (3)附件中所带的工具包一份 (包括:升级客户端程序) 1.2 设备硬件状态例行检查项 为了保证设备的稳定运行,工作人员需要以天为周期对设备进行检查,例行检查的项目如下: 1.2.1设备状态灯的检查 SANGFOR AD系列硬件设备正常工作时电源灯常亮,设备的状态指示灯(设备面板左上角标示“状态”字样)只在设备启动时因系统加载会长亮(约一分钟),正常工作时熄灭。如果在使用过程中此灯长亮(注意双机热备的备机此灯会以闪烁),且设备无法正常使用请按照如下步骤进行操作: (1)请立即将设备断电关闭,将系统切换到备机; (2)半小时后将设备重启,若重启后红灯仍一直长亮不能熄

RADWARE之链路负载均衡配置解析 网络描述: 网络出口共有3条公网线路接入,一台RADWARE直接连接三个出口ISP做链路负载均衡,来实现对内部服务器访问和内部对外访问流量的多链路负载均衡。 设计方案: 1、RADWARE LINKPROOF设备部署在防火墙外面,直接连接出口ISP 2、防火墙全部修改为私有IP地址,用RADWARE LINKPROOF负责将私有IP地址转换成公网IP地址; 3、防火墙的DMZ区跑路由模式,保证DMZ区服务器的正常访问; 4、RADWARE LINKPROOF利用SmartNAT技术,分别在每链路上配置NAT地址,保证内部服务器的联网。 网络拓扑:

实施过程(关键步骤): 1、配置公网接口地址 G-1 :218.28.63.163/255.255.255.240 联通 G-2 :211.98.192.12/255.255.255.128 铁通 G-3 :222.88.11.82/255.255.255.240 电信 G-4 :3.3.3.2/255.255.255.0 内联接口地址,连接防火墙 2、配置默认路由 现网共有3条ISP链路,要将每条链路的网关进行添加,具体如下: 命令行配置 LP-Master# Lp route add 0.0.0.0 0.0.0.0 218.28.63.161 Lp route add 0.0.0.0 0.0.0.0 211.98.192.11 Lp route add 0.0.0.0 0.0.0.0 222.88.11.81 3、配置内网回指路由 net route table create 192.168.5.0 255.255.255.0 3.3.3.1 -i 14 net route table create 192.168.6.0 255.255.255.0 3.3.3.1 -i 14 net route table create 192.168.7.0 255.255.255.0 3.3.3.1 -i 14 net route table create 192.168.8.0 255.255.255.0 3.3.3.1 -i 14 net route table create 192.168.9.0 255.255.255.0 3.3.3.1 -i 14 4、配置地址转换 地址转换主要包括内部用户的联网和服务器被访问两部分,这两部分在负载均衡上面分别采用Dynamic NAT和Static PAT这两种NAT来实现,把内部的IP地址和服务器的IP地址分别对应每条ISP都转换成相应的公网IP地址。

方欣科技有限公司 密级:限项目内使用 性能测试报告 (V1.0.0) 方欣科技有限公司 修订记录

目录 1.简介 ----------------------------------------------------- 4 1.1.概述 (4) 1.2.读者范围 (4) 1.3.参考资料 (4) 2.测试环境 ------------------------------------------------- 4 2.1.服务器 (4) 2.2.客户机 (5) 2.3.测试工具 (5) 3.性能指标 ------------------------------------------------- 6 4.测试用例 ------------------------------------------------- 7 5.测试结果 ------------------------------------------------- 8 5.1.登录:2000并发,主页+登录+申报首页 (8) 5.1.1.TPS汇总 (9) 5.1.2.响应时间 (9) 5.1.3.点击率 (10) 5.2.通用申报 (10) 5.2.1.200并发 (10) 5.2.2.500并发 (11) 5.2.3.小结 (13) 5.3.申报查询 (13) 5.3.1.500并发 (13) 5.3.2.小结 (14) 6.风险与建议 ---------------------------------------------- 14

1.简介 1.1.概述 (对文档目的进行说明,描述系统与测试执行的概况示例如下:) 本报告主要说明项目组对***系统进行性能测试的环境要求、测试场景、测试关键点、测试记录,测试结果等具体内容。 1.2.读者范围 (列出可能的读者范围,报告提交对象) 1.3.参考资料 (列出参考资料,没有可忽略) 2.测试环境 2.1.服务器 (列出测试环境服务器资源情况,示例如下:)

智能DNS全局负载均衡解决方案 ——深信服AD系列应用交付产品 背景介绍 在数据大集中的趋势下,多数组织机构都建立了统一运维的数据中心。考虑到单 一数据中心在遭遇到不抗拒的因素(如火灾、断电、地震)时,业务系统就很有 可能立即瘫痪,继而造成重大损失,因此很多具有前瞻性的组织机构都在建设多 数据中心以实现容灾。那么如何充分利用多个数据中心的资源才能避免资源浪 费?如何在一个数据出现故障时,将用户引导至正常的数据中心?在多个数据中 心都健康的情况下如何为用户选择最佳的数据中心? 问题分析 随着组织的规模扩大,用户群体和分支机构分布全国乃至全球,这一过程中组织对信息化应用系统的依赖性越来越强。对于企事业单位而言,要实现业务完整、快速的交付,关键在于如何在用户和应用之间构建的高可用性的访问途径。 跨运营商访问延迟-由于运营商之间的互连互通一直存在着瓶颈问题,企业在兴建应用服务器时,若只采用单一运营商的链路来发布业务应用,势必会造成其他运营商的用户接入访问非常缓慢。在互联网链路的稳定性日益重要的今天,通过部署多条运营商链路,有助于保证应用服务的可用性和可靠性。 多数据中心容灾-考虑到单数据中心伴随的业务中断风险,以及用户跨地域、跨运营商访问的速度问题,越来越多组织选择部署同城/异地多数据中心。借助多数据中心之间的冗余和就近接入机制,以保障关键业务系统的快速、持续、稳定的运行。

深信服解决方案 智能DNS全局负载均衡解决方案,旨在通过同步多台深信服AD系列应用交付设备,以唯一域名的方式将多个数据中心对外发布出去,并根据灵活的负载策略为访问用户选择最佳的数据中心入口。 用户就近访问 ④支持静态和动态两种就近性判断方法,保障用户在访问资源时被引导至最合适的数据中心 ④通过对用户到各站点之间的距离、延时、以及当前数据中心的负荷等众多因素进行分析判断 ④内置实时更新的全球IP地址库,进一步提高用户请求就近分配的准确性,避免遭遇跨运营商访问 站点健康检查 ④对所有数据中心发布的虚拟服务进行监控,全面检查虚拟服务在IP、TCP、UDP、应用和内容等所有协议 层上的工作状态 ④实时监控各个数据中心的运行状况,及时发现故障站点,并相应地将后续的用户访问请求都调度到其他的 健康的数据中心 入站流量管理 ④支持轮询、加权轮询、首个可用、哈希、加权最小连接、加权最少流量、动态就近性、静态就近性等多种 负载均衡算法,为用户访问提供灵活的入站链路调度机制 ④一旦某条链路中断仍可通过其它链路提供访问接入,实现数据中心的多条出口链路冗余 方案价值 ④合理地调度来自不同用户的入站访问,提升对外发布应用系统的稳定性和用户访问体验 ④多个数据中心之间形成站点冗余,保障业务的高可用性,并提升各站点的资源利用率 ④充分利用多条运营商链路带来的可靠性保障,提升用户访问的稳定性和持续性

产品测试计划报告 :测试计划报告产品软件测试进度报告 ul817 测试计划模板测试计划的测试范围 篇一:软件测试计划报告 《软件测试计划报告》 2014年 12月 目录 一、被测试系统介 绍 ................................................................. . (1) 1、软件背 景 ................................................................. ...................................................... 1 二、测试计划 ................................................................. . (1) 1、概 述 ................................................................. .. (1) 1.1设计背 景 ................................................................. ................................................... 1 1.2关键词定义 ................................................................. ............................................... 1 2、计

Radware+AppDirector配置手册 (v 140909)

版本说明

1 地址分配说明 负载均衡设备上的IP 地址分配如下: 说明: ?APPdirector IP:负载均衡设备在单臂部署下的接口IP。 ?Virtual IP Interf ace: 是冗余地址, 作为服务器的网关,主/备用负载均衡设备的 地址相同。 ?Farm IP:代替服务器被外部用户访问的IP 地址。主/备用负载均衡设备的Farm IP 相同。 ?Client NAT IP:为服务器同时对内部用户提供服务所使用的IP 地址转换。 ?Route IP:负载均衡设备上的网关IP(防火墙地址)。 ?Active 为主用负载均衡设备,backup 为备用负载均衡设备。

2 R a dw ar e A p pD ir ec to r设备配置步骤 2.1登陆A pp D i r e c t o r设备 2.2配置A pp D i r e c t o r设备 3 R a dw ar e A p pD ir ec to r设备的登陆 3.1r a d w a r e A pp D i r e c t o r和电脑的连接: 3.2定义r a d w a r e A pp D i r e c t o r C o n s o l e参数:

3.3 初始化,清配置: 给设备加电,在3 秒内按任意键 CPU: RadWa re BOOMER - MPC740/750 Active boot: 1 DRAM si z e:256M Flas h si z e:16M Altera version: 24 BSP version: 6.00 Creation date:Oct 11 2005,16:34:37 Press any key to stop auto-boot... 3 > > ? ? - print this list @- boot (loa d and go) e - print fata l exception w- download via xmode m a - print installed applications list i- set active appl ication u- download to secondary boot via xmode m x - extract from an archi ve >q0(清空原有配置参数,恢复缺省值) >q1(清空原有配置参数,恢复缺省值) Q 是隐含命令,防止用户误删除配置. > q0 Erasing conf igurati on... Erasing Netwo rk Section ... done > q1 Erasing conf igurati on... fl:/ - Volume is OK config file is not foundErasing Netwo rk Section ... done >@(设备重启)

Radware Radius负载均衡 配置指导书 Table of Contents目录 第1章AppDirector产品介绍 (3) 1.1 Radware基本概念 (3) 第2章主AD设备配置 (6) 第3章初始化AD设备 (7) 3.1 连接AD设备 (7) 3.2 登录AD设备 (9) 3.3 确认当前设备的版本 (10) 3.4 查看当前设备的License (11) 3.5 初始化AD设备 (11) 第4章WEB配置 (14) 4.1 登录WEB管理界面 (14) 4.2 配置端口IP地址 (15) 4.3 配置路由 (17) 4.4 配置farm (18) 4.5 配置负载均衡算法中的Radius属性 (20)

4.6 配置L4 Policy (22) 4.7 配置server (23) 4.8 配置server NAT (24) 第5章健康检查配置 (26) 5.1 全局打开高级健康检查功能 (26) 5.2 设置Check Table (26) 5.3 设置Bining Table (29) 5.4 修改Farm Table (30) 5.5 查看健康检查结果 (30) 第6章主备AD冗余配置 (31) 6.1 配置冗余方式 (31) 6.2 配置Selective Interface Grouping (31) 6.3 配置Virtual Router (32) 6.4 配置浮动ip (33) 6.5 配置端口Associated IP (34) 第7章启动主备冗余 (35) 7.1 基本配置 (35) 7.2 启动冗余 (36) 7.3 配置会话表镜像 (36) Table of Contents 目录 第1章AppDirector产品介绍 (3) 1.1 Radware基本概念 (3) 第2章主AD设备配置 (6) 第3章初始化AD设备 (7) 第4章WEB配置 (14) 第5章健康检查配置 (26) 第6章主备AD冗余配置 (31) 第7章 3.5启动主备冗余 (35)

深信服科技AD日常维护手册 深信服科技大客户服务部2015年04月

有特别注明,版权均属深信服所有,受到有关产权及版权法保护。任何个人、机构未经深信服的书面授权许可,不得以任何方式复制或引用本文的任何片断。目录 SANGFOR AD设备的每天例行检查 例行检查前需准备: (1)安装了WINDOWS系统的电脑一台 (2)设备与步骤1所描述的电脑在网络上是可连通的 (3)附件中所带的工具包一份

(包括:升级客户端程序) 设备硬件状态例行检查项 为了保证设备的稳定运行,工作人员需要以天为周期对设备进行检查,例行检查的项目如下: 1.2.1设备状态灯的检查 SANGFOR AD系列硬件设备正常工作时电源灯常亮,设备的状态指示灯(设备面板左上角标示“状态”字样)只在设备启动时因系统加载会长亮(约一分钟),正常工作时熄灭。如果在使用过程中此灯长亮(注意双机热备的备机此灯会以闪烁),且设备无法正常使用请按照如下步骤进行操作: (1)请立即将设备断电关闭,将系统切换到备机; (2)半小时后将设备重启,若重启后红灯仍一直长亮不能熄灭,请速与我司 技术支持取得联系。 1.2.2接口指示灯的检查 正常情况下,网口link灯在感知到电信号的时候会呈绿色(百兆链路,如果是千兆链路,该灯会成橙色)且长亮,网口ACT灯在有数据通过的时候会呈橙色且会不停闪烁,如果link或者ACT灯不闪或者不亮,请按照如下步骤进行操作: (1)检查该网线是否破损 (2)检查网口水晶头是否有破损 (3)检查网卡双工模式是否协商匹配 (4)上述均没有问题,请及时重启设备切换主备,并及时联系深信服技术支 持 1.2.3设备CPU运行检查 通过设备控制台的网关运行状态,检查CPU占用率是否长期居高,注:登陆设备后显示的第一页面就是网关运行状态,如果CPU长期居高,请按照如下步骤进行操作: (1)在线用户数是否超过了设备能够承受的并发参数 (2)设备是否遭受到了DOS攻击?(设备默认关闭防dos攻击,开启后可产 生日志) (3)某个进程是否异常?(需联系深信服技术支持确认) 1.2.4设备异常状况检查 检查设备硬件是否有异常(风扇,硬盘是否有异常声响) 如果设备内部有异常声响,可能是硬盘或风扇的异常工作导致,请立即断开电源停止设备工作,如有备用机,请立即将系统切换到备用机;并及时联系我司客服部门以确认故障并返修设备。

在近期的项目中,接触负载均衡设备RADWARE比较多,可能有很多朋友对这个设备还不是很了解,所以我把具体项目实战中的Radware配置应用与大家做一个分享交流。RADWARE是一家智能应用网络解决方案的全球领先供应商,主要生产应用交付和网络安全产品,总部位于以色列特拉维夫市。 负载均衡(又称为负载分担),英文名称为Load Balance,其意思就是将负载(工作任务)进行平衡、分摊到多个操作单元上进行执行,例如Web服务器、FTP服务器、企业关键应用服务器和其它关键任务服务器等,从而共同完成工作任务。需要说明的是:负载均衡设备不是基础网络设备,而是一种性能优化设备。对于网络应用而言,并不是一开始就需要负载均衡,当网络应用的访问量不断增长,单个处理单元无法满足负载需求时,网络应用流量将要出现瓶颈时,负载均衡才会起到很好的作用。 负载均衡有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。 现代负载均衡技术通常操作于网络的第四层或第七层,这是针对网络应用的负载均衡技术,它完全脱离于交换机、服务器而成为独立的技术设备。 负载均衡的两种解决方案: 软件负载均衡解决方案是指在一台或多台服务器相应的操作系统上安装一个或多个附加软 件来实现负载均衡,它的优点是基于特定环境,配置简单,使用灵活,成本低廉,可以满足一般的负载均衡需求。 软件解决方案缺点也较多,因为每台服务器上安装额外的软件运行会消耗系统不定量的资源,越是功能强大的模块,消耗得越多,所以当连接请求特别大的时候,软件本身会成为服务器工作成败的一个关键。另外软件可扩展性并不是很好,易受到操作系统的限制;由于操作系统本身的Bug,往往会引起安全问题。 硬件负载均衡解决方案是直接在服务器和外部网络间安装负载均衡设备,这种设备我们通常称之为负载均衡器,由专门的设备完成专门的任务,独立于操作系统,整体性能得到大量提高,加上多样化的负载均衡策略,智能化的流量管理,可达到最佳的负载均衡需求。 一般而言,硬件负载均衡在功能、性能上优于软件方式,不过成本昂贵。 Radware负载均衡:Radware的AppDirector(AD)可以有效地均衡IP应用的负载,优化网络性能。AppDirector在Internet和服务器集群(Server Farms)之间具有非常重要的作用,

Port-Channel笔记 一、Port-Channel技术的意义。 1.增加带宽 通过技术手段将若干物理链路捆绑成一条逻辑链路,使单条链路的带宽增加。 2.物理线路冗余 在捆绑好的Port-Channel中,物理链路会产生冗余效果。当其中一条物理链路断掉 时,整条逻辑链路不会产生中断,仅仅带宽变小。 二、Port-Channel对设备要求。 Port-Channel技术对设备有一定的要求。 1.端口均为全双工模式; 2.端口速率相同; 3.端口的类型必须一样,比如同为以太口或同为光纤口; 4.端口同为access 端口并且属于同一个vlan 或同为trunk 端口; 5.如果端口为trunk 端口,则其allowed vlan 和native vlan属性也应该相同。 三、Channel-Group的五种模式。 Channel-Group分为五种模式On、Active、Passive、Desirable、Auto。 其中按照协议类型不同分为三类。 1.无协议 无协议的Channel-Group两端均使用On模式。链路两端之间不发送任何关于 Port-Channel的协商数据包。仅在本地对端口进行属性比较。 https://www.360docs.net/doc/ed17689281.html,CP协议 LACP协议的Channel-Group有两种模式。 A.Active – Active 两端均为Active模式时,两端会相互发送端口绑定的协商数据包。当一端收到 另一端的协商数据包时,则确认该端口可以加入Port-Channel的链路中。 B.Active – Passive Passive仅接收LACP协议的协商数据包,并不对其加以反馈。当Passive端收到 Active端发送的数据包时,则表示该物理链路符合加入Port-Channel链路聚合的 条件。 3.PAgP协议 A.Desirable – Desirable 两端均为Desirable模式时,将会相互发送PAgP的协商数据包。如果端口收到 对端发送的数据包,则表示该条链路符合加入Port-Channel的条件。 B.Desirable – Auto Auto模式表示该端口仅接收PAgP协议的数据包,单并不会加以反馈。与LACP 协议类似。 其中LACP是公有协议,而PAgP是思科的私有协议。在思科的官方配置文档中,建议工程师在配置思科设备时优先使用PAgP协议。 四、Port-Channel链路的负载均衡。 Port-Channel的负载均衡和我们熟知的负载均衡有所不同。Port-Channel的负载均衡一般按照类型分为源IP、源MAC、目的IP、目的MAC、源和目的IP、源和目的MAC。 这里以源IP为例。 当IP为192.168.1.100的主机发送数据包穿过Port-Channel时,从F0/1端口通过。 那么只要是192.168.1.100的主机通过Port-Channel的,只能从F0/1端口通过。这时如

Radware-LinkProof 多链路解决方案 Radware China

目录 1需求分析 (3) 1.1 单一链路导致单点故障和访问迟缓 (3) 1.2 传统解决方案无法完全发挥多链路优势 (4) 2Radware LinkProof(LP)解决方案 (5) 2.1 方案拓扑图 (5) 2.2 链路优选方案 (6) 2.2.1 链路健康检测 (6) 2.2.2 流入(Inbound)流量处理 (7) 2.2.3 流出(Outbound)流量处理 (8) 2.3 独特优势 (9) 2.4 增值功能 (9) 2.4.1 流量(P2P)控制和管理 (9) 2.4.2 应用安全 (10) 2.5 接入方式 (10) 3设备管理 (11) 4总结 (12)

1 需求分析 近年来,Internet 作为一种重要的交流工具在各种规模的商业机构和各个行业中得到了普遍应用。在机构借以执行日常业务活动的各种网络化应用中,目前已包括从供应链管理到销售门户、数据管理、软件开发工具和资源管理等一系列的应用。这些不断增长的网络化应用对企业通讯的效率和可用性也提出了较高要求。 1.1 单一链路导致单点故障和访问迟缓 用户的网络结构通常如下:单一链路实现内部网络和Internet之间的连接。 而在Internet接入的稳定性对于一个用户来说日见重要的今天,一个ISP显然无法保证它提供的Internet链路的持续可用性,从而可能导致用户Internet接入的中断,带来无法预计的损失。 而且由于历史原因,不同ISP的互连互通一直存在着很大的问题,在南方电信建立的应用服务器,如果是南方电信用户访问正常,Ping的延时只有几十甚至十几毫秒,对用户的正常访问几乎不会造成影响;但如果是北方网通的远程用户访问,Ping的延时只有几百甚至上千毫秒,访问应用时则会出现没有响应设置无法访问的问题。如果用户采用单条接入链路,无论是采用电信(或则网通),势必会造成相应的网通(或则电信)用户访问非常慢。 因此,采用多条链路已成为用户实现Internet接入的稳定性的必然选择。

Radware负载均衡解决实施方案

————————————————————————————————作者:————————————————————————————————日期:

Radware WSD 服务器负载均衡解决方案

1.1 WSD ―服务器负载均衡 1.1.1Radware 网络应用系统负载均衡的基本工作原理 Radware的WSD通过对于数据包的4-7层信息的检查来进行负载均衡的判断,服务器负载均衡是最普遍的一种4-7层交换的例子,下面我们就以服务器负载均衡的整个流程来介绍Radware WSD的工作原理: 1.1.1.1 会话“session”。 请看下面会话的例子: 为了识别会话,客户机和服务器都使用TCP“埠”。客户机和服务器之间的TCP会话由四个参数定义:客户机IP地址、客户机TCP端口、服务器IP地址和服务器TCP端口。所以,如果IP地址为199.1.1.1的客户机使用TCP端口1234与IP地址为145.145.100.100的服务器(TCP埠80)建立会话,则该会话定义如下: (clntIP,clntPORT,srvrIP,crvrPORT )= (199.1.1.1,1234,145.145.100.100,80) 1.1.1.2 服务器负载均衡 假设图1中所示的样例,客户机通过访问服务器负载均衡设备WSD的虚拟地址145.1.1.1 进行HTTP应用的访问。再假设选择服务器145.145.100.100响应此客户机,则客户表的记录如下所示:

如果启用此记录,WSD 会执行以下两个任务: 1. 所有从客户机199.1.1.1发送到服务器群145.145.1.1且目标TCP 端口为80的数据包将被发送到服务器145.145.100.100。 2. 所有从服务器145.145.100.100发送到客户机199.1.1.1且源TCP 端口为80的数据包将被改为源地址145.145.1.1发送出去。 即:对于用户199.1.1.1 来说,145.145.1.1 是他要访问的服务器IP 地址,当WSD(145.145.1.1),收到用户请求后,会根据后面2台服务器的“健康状况”和负载均衡算法将用户的请求转发到某一台服务器145.145.100.100 1.1.1.3 健康检查 由于负载均衡设备同应用的关系比较紧密,所以需要对负载均衡的元素进行“健康”检查,如果负载均衡设备不能在应用进行健康检查,就无法做到对应用的高可靠性的保障。 Radware 的高级健康检查模块,可以准确的做到应用层的健康检查。这种新的模块与流量复位向模块紧密相连, 可以提前检验所有应用和网络部件的可用

高可用Lvs集群搭建和测试报告 Lvs(Linux Virtual Server)是Linux下的负载均衡器,支持LVS-NA T、 LVS-DR、LVS-TUNL三种不同的方式,NA T用的不是很多,主要用的是DR、TUNL方式。DR方式适合所有的RealServer在同一网段下,即接在同一个交换机上。TUNL方式不限制RealServer 的位置,完全可以跨地域、空间,只要系统支持Tunnel就可以。 运行Lvs的前端调度器,目前只能为Linux,针对FreeBSD刚刚出来,性能不是很好。可以针对Web、MySQL、Ftp等服务做load balances。后端的RealServer则可以为各类系统,Linux、Solaris、Aix、BSD、Windows都可。 下面主要针对DR方式下的Web、MySQL负载均衡,以及Lvs + HA做功能性的验证和性能方面的测试。 1.集群系统拓扑

2.环境搭建说明 1.前端Load Balancer、Backup为虚拟机Linux系统,后端两台Real Server为纯Linux系 统。 2.192.168.6.229为前端负载均衡调度器,虚拟IP为192.168.6.111,安装并配置了ipvsadm (负载均衡)、ldirectord(健康监控)服务。 3.192.168.6.230为调度器的备份,采用heartbeat实现。 4.192.168.6.240、192.168.6.241为两台提供服务的真实Server。 3.功能性验证 首先在Load Balancer上安装ipvsadm、ldirectord、heartbeat服务,备机上也相同,可以用YUM进行安装,安装完成后需要将ha.cf、haresources、authkeys、ldirectord.cf文件拷贝到/etc/ha.d/ 目录下。 3.1. 验证Apache负载均衡。 3.1.1.配置 1.配置Load Balancer的ipvsadm,脚本内容如下:

网络基准性能测试 一、测试目的 通过测试网络的连通性、吞吐量、往返延时、丢包率,判断网络系统的基准性能是否符合标准DB37/T 291-2000《计算机网络检测与评估》的要求。 二、术语解释 2.1连通性 连通性反映被测试链路之间是否能够正常通信。 2.2吞吐量 吞吐量是指测试设备或被测试系统在不丢包的情况下,能够达到的最大包传输速率。 2.3响应时间 响应时间即往返延迟,是指发出请求的时刻到用户的请求的相应结果返回用户的时间间隔。 2.4丢包率 丢包率是指在吞吐量范围内测试所丢失数据包数量占所发送数据包的比率。 三、测试依据 本次测试依据DB37/T291-2000《计算机网络检测与评估》 四、网络拓扑 五、测试环境分析 网络基准性能测试在山东省标准化研究院网络管理中心完成。测试在空载环境下进行,选取省局的服务器所在网络进行负载压力测试,通过模拟大量的数据包,测试网络的基准性能,以确保网络性能可以保障业务的正常运行。

3.1防火墙访问控制策略表 注:测试时在防火墙访问控制策略中添加允许双向ping通的策略,并打开测试工具的两个默认端口才能完成测试。 3.2测试场景描述 在网络基准性能测中,选定主要通道,分四个场景,利用Chariot的数据产生功能,生成特定长度的帧,人为的给网络系统制造特定的数据流量,以测试网络的连通性、吞吐量、响应时间和丢包率。四个场景拓扑图分别如下:场景1 上述链路的选取和测试,体现了从网通线路入口到F5负载均衡上连口之间的网络性能,反映了数据经过防火墙控制策略过滤后所呈现的网络基准性能。在测试过程中,需要断开Internet连接,并在防火墙的E1接口上放置测试机A,摘除F5以及两台WEB服务器,并在F5的位置上放置测试机C。 场景2 上述链路的选取和测试,体现了从电信线路入口到F5负载均衡上连口之间的网络性能,反映了数据经过防火墙控制策略过滤后所呈现的网络基准性能。在测试过程中,需要断开Internet连接,并在防火墙的E3接口上放置测试机B,摘除F5以及两台WEB服务器,并在F5的位置上放置测试机C。

一、概述 随着互联网技术的不断发展,企业开始更多地使用互联网来交付其关键业务应用,企业生产力的保证越来越多的依赖于企业IT架构的高可靠运行,尤其是企业数据中心关键业务应用的高可用性,所以企业越来越关注如何在最大节省IT成本的情况下维持关键应用7×24小时工作,保证业务的连续性和用户的满意度。 然而,由于中国电信发展的历史问题,使得不同运营商之间的互连互通一直存在着很大的问题。例如,通过电信建立的应用服务器,如果是网通的用户访问该资源的时候,Ping的延时有几百甚至上千毫秒,用户访问时,可能会出现应用响应缓慢甚至没有响应造成无法访问的问题。这样企业在建立应用服务器时,如果用户采用单条接入链路,无论是采用电信还是网通网络链路,势必都会造成相应的网通或电信用户访问非常缓慢。 如果只保持一条到公共网络的连接链路则意味着频繁的单点故障和脆弱的网络安全性。在互联网链路的稳定性日益重要的今天,显然,单个互联网无法保证应用服务的质量和应用的可用性以及可靠性,而应用服务的中断,将会带来重大损失。 因此,采用多条链路已成为保证互联网链路稳定性和快速性的必然选择。而传统的多链路的解决方案也不能完全保证应用的可靠性和可用性; 传统多归路方案通过每条互联网链路为内网分配一个不同的IP地址网段来实现对链路质量的保证。这样来解决方案虽然能够解决一些接入链路的单点故障问题,但是这样不仅没有实现真正上的负载均衡,而且配置管理复杂。 1.路由协议不会知道每一个链路当前的流量负载和活动会话。此时的任何负载均衡都是很不精确的, 最多只能叫做“链路共享”。 2.出站访问,有的链路会比另外的链路容易达到。虽然路由协议知道一些就近性和可达性,但是他 们不可能结合诸如路由器的HOP数和到目的网络延时及链路的负载状况等多变的因素,做出精确的路由选择。 3.入站流量,有的链路会比另外的链路更好地对外提供服务。没一种路由机制能结合DNS,就近性, 路由器负载等机制做出判断哪一条链路可以对外部用户来提供最优的服务。 所以说,传统的多链路接入依靠复杂的设计,解决了一些接入链路存在单点故障的问题。但是,它远远没有把多链路接入的巨大优势发挥出来。 二、需求分析 为了提升应用系统的稳定性和可靠行,通过已经部署多条互联网链路以保证网络服务的质量,消除单点故障,减少停机时间。目前需要在如下两种情况下实现多条链路的负载均衡: 1、内部的应用系统和网络工作站在访问互联网络的服务和网站时如何能够在多条不同的链路中动态分配和负载均衡,这也被称为出站流量的负载均衡。 2、互联网络的外部用户如何在外部访问内部的网站和应用系统时也能够动态的在多条链路上平衡分配,并在一条链路中断的时候能够智能地自动切换到另外一条链路到达服务器和应用系统,这也被称作为入站流量的负载均衡。 正对上述问题,我们推荐使用深信服AD应用交付解决方案,可以智能的为客户解决上述问题: 对于出站流量,AD接收到流量以后,可以智能的将出站流量分配到不同的INTERNET接口,并做源地址的NAT,可以指定某一合法IP地址进行源地址的NAT,也可以用AD的接口地址自动映射,保证数据包返回时

相关文档
最新文档