多链路负载均衡+智能DNS高校解决方案

多链路负载均衡+智能DNS高校解决方案
多链路负载均衡+智能DNS高校解决方案

冰川网络出口链路负载均衡系统

解决方案

郑州冰川网络科技有限公司

目录

1 需求分析 (3)

1.1 单一链路导致单点故障和访问迟缓 (3)

1.2 传统解决方案无法完全发挥多链路优势 (4)

1.3 高校出口面临的问题: (5)

2 冰川网络多链路负载均衡解决方案 (5)

2.1 链路优选方案 (6)

2.2 链路健康检测 (7)

2.3 流入(Inbound)流量处理 (8)

2.4 流出(OutBount)流量处理 (9)

2.5 基于ASIC芯片的NA T及路由技术 (9)

3 冰川独特优势 (9)

3.1 基于ASIC转发技术和传统CPU的灵活性完美结合 (9)

3.2 基于协议的链路负载技术 (9)

3.3 多点探测技术(Multi-Detection Technology) (10)

3.4 人性化的配置界面 (10)

4 设备管理 (10)

5 典型网络部署方案 (12)

6 总结 (14)

1 需求分析

目前很多企业为了提高信息发布的性能和可靠性,向多个电信运营商同时租用互联网线路,所以拥有两条或两条以上的互联网连接链路,这些用户希望分别通过多条链路使用网络平台和资源,但是这样的网络出口建设形式,暴露出以下问题,并亟待解决。

1.1 单一链路导致单点故障和访问迟缓

用户的网络结构通常如下:单一链路实现内部网络和Internet之间的连接。

而在Internet接入的稳定性对于一个用户来说日见重要的今天,一个ISP

显然无法保证它提供的Internet链路的持续可用性,从而可能导致用户Internet接入的中断,带来无法预计的损失。

而且由于历史原因,不同ISP的互连互通一直存在着很大的问题,在南方电信建立的应用服务器,如果是南方电信用户访问正常,Ping的延时只有几十甚至十几毫秒,对用户的正常访问几乎不会造成影响;但如果是北方网通的远程用户访问,Ping的延时只有几百甚至上千毫秒,访问应用时则会出现没有响应设

置无法访问的问题。如果用户采用单条接入链路,无论是采用电信(或网通),势必会造成相应的网通(或电信)用户访问非常慢。

因此,采用多条链路已成为用户实现Internet接入的稳定性的必然选择。

1.2 传统解决方案无法完全发挥多链路优势

下图是一个多链路接入的典型拓扑,在图中内部网络到Internet有2条接入链路,其中一条通过ISP1进行链接,而另一条则通过ISP2链接。

传统多归路方案:每个ISP为内网分配一个不同的IP地址网段。因而,对内网来说2个IP网段同时生效。

存在问题:地址的静态分配给寻址带来了很大的复杂性。

除了复杂性之外,传统的多链路网络也具有一些人们尚未完全认识的不足: 网络有多个链路与Internet相接,即使用最复杂的协议,例如BGP4,真正意义上的流量负载均衡还是做不到。路由协议不会知道每一个链路

当前的流量负载和活动会话。此时的任何负载均衡都是很不精确的,最

多只能叫做“链路共享”。

●对外访问,有的链路会比另外的链路容易达到。虽然路由协议知道一些

就近性和可达性,但是他们不可能结合诸如路由器的HOP数和到目的网

络延时及链路的负载状况等多变的因素,做出精确的路由选择。

●对内流量(比如, Internet用户想访问有多条链路接入的网上的一台

服务器)。有的链路会比另外的链路更好地对外提供服务。没一种路由

机制能结合DNS,就近性,路由器负载,做出判断哪一条链路可以对外

部用户来提供最优的服务。

传统的多链路接入依靠复杂的设计,解决了一些接入链路存在单点故障的问题。但是,它远远没有把多链路接入的巨大优势发挥出来。

1.3 高校出口面临的问题:

和大多数网络一样,高校的网络也存在了上述的问题,总结如下:

1 出口链路流量不均衡。采用传统策略路由的方法,如果选择DNS走教育网,则会引起晚上高峰期教育网链路网页打开速度奇慢无比。而如果选择DNS走联通链路,则会导致联通链路满载。而其他链路相对较为闲余。贵校移动和教育网的链路分别是1G和300M,但这两条链路虽然带宽充裕,但基于传统路由方式的话,其带宽无法利用起来。

2 出口链路无法实现链路冗余。当某条出口链路中断时,会影响到访问此区域的网站。特别是教育网线路如果出现中断,会引起整个网络瘫痪。(因为主DNS是基于教育网)

3 当出口链路中断时,会引起外部用户无法访问学校网站。

4 外部用户访问学校网站时,只能走教育网,无法充分利用多ISP出口链路的优势。

2 冰川网络多链路负载均衡解决方案

作为应用业务设备供应商的后起之秀,冰川网络凭借其强大的技术优势,成为应用优化领域的一匹黑马。

冰川网络多链路负载均衡解决方案就是在广域网出口的位置。放置一台冰川链路负载均衡设备。所有的地址转换处理和Internet链路选址、优化全部由冰川网络多链路负载均衡设备来完成。

针对各种用户的典型需求,冰川网络多链路负载均衡在以下几个环节上提供了先进的功能和完善的解决方案:

●最佳链路选择;

●基于“MDT”技术的链路健康检测;

●智能地址翻译;

●ASIC加速模块(可选);

●流量(P2P)控制和管理(可选);

方案拓扑图

典型的冰川网络多链路负载均衡解决方案架构如下图所示:

2.1 链路优选方案

冰川网络多链路负载均衡能够同时实现双向(Inbound和Outbound)流量在多条两路上的负载均衡的。

●链路健康状况检查:出口链路负载均衡设备采用"MDT(Multi-Detection

Technology)方式判断链路的健康状况,可同时对多条ISP的多个探测点进行链路检测。

●Inbound流量处理方面主要利用了DNS和NAT技术;

●Outbound流量处理主要利用了NAT技术。

●链路的选择时,基于TCP/UDP的"SESSION流"技术:即协议、源IP、目的

IP、源端口、目的端口五元素称之为一个“SESSION”,也就是一个连接数。出入流量均只针对新建的SESSION,对于已经建立起连接的SESSION,会保持原有的链路不改变。

如图:

2.2 链路健康检测

冰川网络多链路负载均衡会通过多种方式检测两条链路的健康状况,一旦发现其中一条链路故障,会立即将所有用户流量定向至其它可用链路,从而实现Internet连接的高可用性。主要的方法有:

●MDT方式的健康检查

为了确保ISP链路的畅通,冰川网络多链路负载均衡将采用Ping的方法,可检查多个目的地址是否畅通,从而来判断ISP链路是否畅通。还可以基于自定义源地址的办法来进行检测。

注:该方法要求ISP的链路对ICMP开放。

●高级健康检查

针对所有的网络环境(包括禁止ICMP的ISP),冰川网络多链路负载均衡提供了丰富的4~7层检查方式,并可以通过多种检查结果的“与”和“或”运算结果,最终准确判断链路的健康状况。例如:通过CNC的路径,同时检查https://www.360docs.net/doc/469784245.html,和https://www.360docs.net/doc/469784245.html,的80端口,并将检查结果做“或”运算,只要一个检查通过即可判断CNC链路正常。避免了某网站故障导致链路状态误判的可能性。

2.3 流入(Inbound)流量处理

冰川网络多链路负载均衡需要智能DNS配合将域名的解析功能导向到多链路负载均衡,由冰川网络多链路负载均衡来进行路由。这样当远程通过域名访问网站时,逐步通过远程用户的本地DNS服务器、根DNS服务器,最终由冰川智能DNS系统来进行域名的解析。此时就会通过静态列表或者动态判断算法,选择最优的线路,然后将域名解析成相应线路的IP地址。

例如:当某个网通的远程用户访问网站时,首先向他当地的DNS服务器发起域名解析的请求,再通过他接入运营商的根DNS服务器,最终总归会向冰川智能DNS系统请求DNS解析,此时冰川智能DNS系统就会通过静态列表或者动态判断

算法,选择最优的线路(网通),然后将域名解析成网通线路的IP地址(218.x.x.1)。这样远程的网通用户就会使用网通的目标IP地址,通过网通的线路进行访问,实现了访问时链路方面的负载均衡优化。

2.4 流出(OutBount)流量处理

针对向外的流量,链路负载均衡设备会动态的根据各ISP链路的繁忙及管理员定义的策略来进行路由和NAT。

2.5 基于ASIC芯片的NAT及路由技术

在冰川Glacier 5188及其他模块话的产品上,可选支持基于ASIC芯片的多端口模块(可选2光2电模块,4光4电模块,8光模块等),配合GFOS操作系统,ASIC 模块与硬件共享内存,能自行处理NAT和路由。整个过程无需硬件处理器的参与。大大提升了产品的性能。能做到10G流量64字节小包线速NAT转发。此技术目前其他链路负载均衡产品均无法达到此性能。

3 冰川独特优势

3.1 基于ASIC转发技术和传统CPU的灵活性完美结合

传统的链路负载均衡系统大部分基于通用处理器技术,当作为出口链路负载并且做NAT、流量特别大的时候,会导致CPU利用率居高不下,甚至当机。冰川出口链路负载均衡采用了通用处理器+ASIC加速模块的方式来解决这个问题。此种技术为当前最前瞻的技术:通用处理器负责SESSION第一个报文的处理,包括匹配ACL、路由、NAT等。并且把该报文的处理结果在内存中进行记忆。对于后续的数据包。ASIC加速模块根据内存中的记忆,直接进行处理。不需要经过通用处理器。大大提升了产品的性能。

3.2 基于协议的链路负载技术

所有的用户和运营商都不得不面临一个相同问题:非关键业务流量占用的大量的可用带宽,其中P2P流量,如BT下载,更是如此。不但造成了网络拥塞,还可能影响到关键的业务和应用。

冰川网络多链路负载均衡上可以集成基于策略和特征的带宽管理功能,识别各种业务流量,特别是能够识别多种P2P流量。可以按照用户的具体需求,分配带宽资源和进行链路负载。在保证关键业务的同时,让用户充分享受Internet 网络的丰富资源。通过带宽管理以及实现各个链路的最大容量,可以避免带宽消耗的骤然剧增。因为只有可用的带宽时,非关键应用才能占用它要求的带宽,这样既阻止了带宽消耗量的剧增,又进一步降低了连接成本。

3.3 多点探测技术(Multi-Detection Technology)

针对ISP线路的健康检测,冰川采用了"MDT"技术来进行探测,俗话说:“再一再二不会再三”,多个探测点同时故障的几率非常低,采用这种技术进行探测,保证了链路健康的综合准确率。

3.4 人性化的配置界面

产品的配置,从用户的角度而已,做到了“所想即所配”,现实中对网络的规划,管理员是怎么想的,就按照思路来配,不需要管理员深入理解技术原理。

4 设备管理

所有冰川网络应用交换机的设备管理方式相同。针对冰川网络多链路负载均衡,网络管理人员可利用如下方式对其进行管理:

?SNMP网络管理系统

?标准的网络浏览器

?使用Telnet 命令

?CLI 命令行控制方式(需要与冰川网络多链路负载均衡通过控制台接口

直接连接)

?SSH管理手段

如图所示:

5 典型网络部署方案

冰川的解决方案是“出口链路负载+智能DNS系统"综合解决方案。出口链路负载均衡解决链路中断和流量不均衡问题。智能DNS解决内外网在链路中断时候正常访问资源、加速外网访问校内网站两大难题。

链路负载均衡拓扑图:

传统的解决方案有两种:

2.1 采用策略路由方式:

这种方式具体用语言描述为:目的地是联通的走联通,目的地是教育网的走教育网,其余的走移动(移动1G带宽比较充裕)。这样的解决方案问题很大:在中午和晚上高峰期间,由于国内的大部分网站和资源都在联通和电信两大运营商内。所以导致联通的300M带宽一到高峰期就丢包非常严重,请求和满足达到了2:1,而移动和教育网的链路则非常空闲。经过观察,移动的链路使用率在25%以下(高峰250M左右)。教育网的使用率也在50%以下。(高峰100M左右)

2.2 采用基于目的IP链路综合检测技术进行路由:

如RadWare的出口链路负载均衡技术,此种技术会在设备的内存中对访问的目的IP地址综合运用多条链路进行速度探测,然后选择一条最合适的链路进行路由。此种技术的缺点主要表现在:在不同时间段,不同网络状态下,需要不停的去学习。另外就是只能基于目的IP进行识别,而无法基于7层协议进行分流。

冰川出口链路负载均衡的解决方案是:

基于传统策略路由+链路探测技术+7层协议分流。综合以上两种方案的优点。

冰川链路负载均衡系统可以将HTTP,传统网络协议以及游戏等对实时性要求较高的应用转入到链路质量好的线路,如联通,而将一些P2P、视频、HTTP下载等可以路由到链路质量不好但带宽很富裕的链路(如移动)。再加上流量控制模块,对特定的应用进行保障,从而达到优化网络的目的。如图所示:

经过优化后,eth4(联通链路)的负载并不高,而eth6(移动链路)的负载比以前大为提升,并且eth4接口上入与出的比例相差较大,此是短连接和HTTP的典型特点。而eth6上入与出比例相差较小,这是典型的P2P特点(即是服务器,又是客户机)。

6 总结

冰川网络多链路负载均衡可以为用户管理多链路的运行,实现Internet 服务的持续连接以及理想的内容传递,从而实现可靠、高性能和高性价比的连接。通过冰川网络多链路负载均衡的部署,我们必定可以帮助用户建立稳定、高效和安全的Internet。

F5多出口链路负载均衡解决方案_Linkcontroller要点

F5 Networks 多出口链路负载均衡解决方案建议 F5 Networks 郑志勇 2005-12-23

目录 一.多出口链路负载均衡需求分析 (3) 二.多出口链路负载均衡解决方案概述 (4) 2.1多出口链路负载均衡网络拓朴设计 (4) 2.2方案描述 (5) 2.3方案优点 (6) 2.3.1 拓扑结构方面 (6) 2.3.2安全机制方面 (6) 三.技术实现 (7) 3.1F5多出口链路负载均衡(产品选型:L INKCONTROLLER 2400) (7) 3.2O UTBOUND流量负载均衡实现原理 (8) 3.3I NBOUND流量负载均衡实现原理 (9) 3.4在链路负载均衡环境中的DNS设计和域名解析方式 (11) 3.4.1 Root DNS(注册DNS)直接与F5多链路负载均衡器配合 (11) 3.4.2 Root DNS(注册DNS)通过第三方DNS Server与F5多链路负载均衡器配合(我们建议这种 方式) (12) 3.5F5设备双机冗余----毫秒级切换原理 (14) 3.6S TATEFUL F AIL O VER 技术(与F5设备双机冗余有关) (15) 四.产品介绍 (16) 4.1F5L INKCONTROLLER 2400 (16) 五.F5多链路负载均衡成功案例举例 (22) 5.1政府 (22) 5.2教育行业 (23) 5.3金融行业 (24) 附录1南北电信互访问题 (25) 附录2传统的链路冗余方案及BGP方案缺点 (26) 附录3对附录一,二的案例分析 (28)

一.多出口链路负载均衡需求分析 为了保证XXXX出口链路的高可用性和访问效率,举例计划拥有两条线路:一条中国网通链路,一条中国电信链路。F5公司的多链路负载均衡设备(Linkcontroller)能够提供独具特色的解决方案,不但能够充分利用这两条链路(双向流量按照预设的算法分担到不同的链路上,一旦一条链路不通的情况下,能够无缝切换到另外一条可用链路上);而且可以根据对不同链路的侦测结果,将最快速的链路提供给外部用户进行响应,从而解决目前广泛存在的多个ISP之间的互联互通问题。具体解决方案特色如下: 提供内网至internet流量的负载均衡(Outbound) 实现从Internet对服务器访问流量的负载均衡(Inbound) 支持自动检测和屏蔽故障Internet链路 支持多种静态和动态算法智能均衡多个ISP链路的流量 支持多出口链路动态冗余,流量比率和切换 支持多种DNS解析和规划方式,适合各种用户网络环境 支持Layer2-7交换和流量管理控制功能 完全支持各种应用服务器负载均衡,防火墙负载均衡 多层安全增强防护,抵挡黑客攻击 业界领先的双机冗余切换机制,能够做到毫秒级切换 详细的链路监控报表,提供给网络管理员直观详细的图形界面 对于用户完全透明 对所有应用无缝支持 业界优异的硬件平台和性能 稳定,安全的设备运行记录

图解F5 链路负载均衡详细配置方法

WAN广域网链路负载均衡测试项目测试项目背景:

测试环境描述 1.1 需求描述 XX股份领导反应:通过互联网采用SSL VPN方式,访问青岛总部内网的OA系统速度慢。为了解决此问题,目前采用三种测试方案: 1、CITRIX; 2、新增加一台JUNIPER SA4000; 3、增加一台F5 BIGIP LC设备和两条分别为青岛联通、青岛移动的100M 链路结合进行WAN链路负载均衡测试。 第二种测试方案目前已做完,效果不理想,当前准备执行第三套测试方案。 F5 BIGIP LC以及如何在使用GTM一张静态的表单(https://www.360docs.net/doc/469784245.html,er)来实现Topology计算。 由于LC只能解析A记录,无法解析SOA 、MX、PTR记录,所以LC只能做一台DNS的子域,无法取代客户的DNS服务器(https://www.360docs.net/doc/469784245.html,)。 测试要求:解决电信和网通的南北互连互通问题,用户有二条链路,(一条网通线路,一条电信线路)。 测试规则如下: 1.访问CNC网站走CNC线路 2.访问CT网站走CT的线路 3.访问本地域名(https://www.360docs.net/doc/469784245.html,)CNC用户从CNC线路过来访问 4.访问本地域名(https://www.360docs.net/doc/469784245.html,)CT用户从CT线路访问

测试环境描述

2测试设备配置步骤 2.1 基础配置 2.1.1进入管理界面,激活license。 注意事项:激活LC设备的license后,一定要完全重新启动一次

(Full_box_reboot)。系统会自动生成相关的文件和启动相应的服务。

2.1.2Platform相关设置 由于是部分授权,所以LC将作为https://www.360docs.net/doc/469784245.html,的子域的Nameserver Hostname:使用NS 的https://www.360docs.net/doc/469784245.html, 提醒:上线测试Root和admin密码一定要修改,不可以使用默认的。

全局负载均衡解决方案

全局负载均衡解决方案 1 需求分析 无论用户的数据中心内部采用多么完善的冗余机制、安全防范工具以及先进的负载均衡技术,单个数据中心的运行方式仍然不能保证关键业务可以7*24不间断运行。 而为了满足处于全球范围内不同地点的用户在访问应用时可以具备相同的快速访问感受,单一的数据中心却完法实现。 基于以上两个最主要的原因,用户通过在不同物理位置构建多个数据中心的方式已经成为用户的必然选择。然而,在构建了多个数据中心后,如何通过有效手段实现多个数据中心间的协调工作,引导用户访问最优的站点,或者当某个站点出现灾难性故障后使用户仍然可以访问其他站点上的关键业务等问题成为用户最关注的问题。 2 Radware 全局负载均衡解决方案 Radware 的全局负载均衡解决方案能够帮助客户通过将相同服务内容布署在处于不同物理地点的多个数据中心中得到更高的可用性、性能、以及更加经济和无懈可击的安全性,以便在全球范围内的客户获得更快的响应时间。 Radware的全局负载均衡解决方案支持Radware 下一代APSolute OS 软件体系结构的全部功能,彻底解决了网络可用性、性能和安全问题,使得应用在多个数据中心中获得更高的灵敏并具有自适应性。配合Radware 的高速度、高容量ASIC芯片+NP处理器的专用硬件应用交换设备,可有效保障网络应用的高可用性、提升网络性能,加强安全性,全面提升IT服务器等网络基础设施的升值潜力。 结合Radware多年来在智能应用流量管理领域的经验,以及对用户实际需求的分析,我们认为负载均衡器应具备如下功能:

?能够通过唯一的IP地址或域名的方式作为所有提供相同服务的数据中心的逻辑入口点。 ?全局负载均衡交换机具有灵活的流量分配算法与机制,以确保用户总能访问可以为其提供最优服务的数据中心的内容。 ?通过部署高性能的负载均衡产品,能够及时发现各数据中心或数据中心内部的服务器的健康状况,当某个数据中心出现故障时,保证把后续用户的访问导向到正常运行的数据中心上。 ?针对基于会话的业务,可以提供多种会话保持机制,确保用户在处理业务时的连续性。避免将用户的相同会话的业务请求,分配到不同的数据中心而造成访问失败。 ?应具备安全过虑及防DOS/DDOS的功能,为服务器提供多一层安全保障 ?具有很好的升级与可扩展性,能够适应特定的和不断变化的业务需求。 2.1 方案拓扑图 2.2 AppDirector-Global实现全局及本地负载均衡 在全局及本地负载均衡方面,AppDirector-Global主要在网络中实现以下功能: 2.2.1 全局负载均衡策略 Radware支持多种全局负载均衡策略,能够通过唯一的IP地址或域名的方式作为所有提供相同服务的数据中心的逻辑入口点。根据用户的实际情况,可以选择其中以下的一种,也可以组合同时使用。

负载均衡解决方案V1

负载均衡解决方案 公司:XX 日期:XX年XX月XX日

目录 1. 负载均衡概述 (3) 2. 项目现状 (3) 3. 项目需求分析 (4) 4. 项目解决方案 (4) 5. 负载均衡结构介绍 (7) 5.1. 负载均衡 (7) 5.2. 负载均衡实现设备[2] (8) 5.3. 负载均衡系统结构 (9) 5.3.1. 两层结构的负载均衡系统 (9) 5.3.2. 三层结构的负载均衡系统 (9) 5.4. 负载均衡实现的方法 (11) 6. Web服务器集群环境配置与测试 (11) 6.1. 搭建环境 (11) 6.1.1. 软硬件环境的搭建 (11) 6.1.2. 软件的安装与配置 (11) 6.2. 环境的测试 (13) 6.3. 集群系统负载均衡测试 (13) 6.4. 集群系统负载均衡测试分析 (13) 6.5. 本系统的不足之处 (14)

1.负载均衡概述 为了提高集群系统对用户的快速响应与整体吞吐量,必须采取一定的策略将Web访问均衡地分配到集群中的每一个服务器。基于此思想本文针对传统的单机思想给出了一种多机三层结构的负载均衡系统。实验结果表明了它在负载均衡方面的优越性。 Internet的快速增长,特别是电子商务应用的发展,使Web应用成为目前最重要最广泛的应用,Web服务器动态内容越来越流行。目前,网上信息交换量几乎呈指数增长,需要更高性能的Web服务器提供更多用户的Web服务,因此,Web服务器面临着访问量急剧增加的压力,对其处理能力和响应能力等带来更高的要求,如果Web 服务器无法满足大量Web访问服务,将无法为用户提供稳定、良好的网络应用服务。 由于客观存在的服务器物理内存、CPU 处理速度和操作系统等方面的影响因素,当大量突发的数据到达时,Web服务器无法完全及时处理所有的请求,造成应答滞后、请求丢失等,严重的导致一些数据包因延时而重发,使传输线路和服务器的负担再次增加。传统的方法是提高Web 服务器的CPU 处理速度和增加内存容量等硬件办法但无论如何增加Web 服务器硬件性能,均无法满足日益增加的对用户的访问服务能力。 面对日渐增加的Web 访问服务要求,必须对Web 服务器按一定策略进行负载分配。利用负载均衡[1]的技术,按照一定策略将Web 访问服务分配到几台服务器上,负载处理对用户透明,整体上对外如同一台Web 服务器为用户提供Web服务。 2.项目现状 本案例公司中现有数量较多的服务器群: ?WEB网站服务器 4台

中小企业多链路负载均衡的解决方案

中小企业多链路负载均衡的解决方案前言: 目前很多企业为了提高信息发布的性能和可靠性,向多个电信运营商同时租用互联网线路,所以拥有两条或两条以上的互联网连接链路,这些用户希望分别通过多条链路使用网络平台和资源,但是这样的网络出口建设形式,暴露出以下问题,并亟待解决。 企业广域网链路络存在的问题: 1、链路的单点失效性: 采用单一Internet连接链路存在单点失效性,一旦该链路出现故障将造成整个企业网络的瘫痪。 2、链路性能的瓶颈: 单一Internet连接链路的带宽资源是有限的,无法满足企业内部全体用户对Internet 访问时所需的带宽,同时也无法满足大量的Internet上的用户对企业的访问。 3、网络安全防护能力弱: 目前Internet上的各种各样的网络攻击层出不穷,路由器自身对网络攻击的防护能力非常有限,DOS/DDOS 网络攻击会对广域网络由器产生严重的影响。 现有的多条链路,互相之间没有联系,这就导致了两条链路的完全独立,不能互为所用;两条或多条链路分别独立接入,链路的占用可能不平均,带宽不能得到充分的利用;任一条链路的中断都会影响正常的上网工作,缺乏容错机制。 解决方案: 面对以上问题,应该在企业网络出口处部署一台梭子鱼LinkBalancer 330链路负载均衡器,如下图所示:

LB330链路负载均衡器部署在出口路由器和防火墙之间,这样可以实现对多条internet 接入链路的负载均衡,可以同时实现outbound流量(内部办公用户访问internet)和inbound 流量(internet用户访问内部服务器)双向的负载均衡,并且可以根据智能算法选择最优路径,以达到最佳访问速度。如果当一个ISP1出现故障,负载均衡器可以及时地检测到,并将内外网流量转到ISP2上,网络仍然可以正常运行。LB330链路负载均衡器支持多达3条外接链路。此外,LB330链路负载均衡器具备抵御DoS/DDoS的功能,有效地保护内网的服务器免遭攻击。 方案特点: 1.增加企业出口带宽,并提供了广域网链路的冗余。 2.通过智能算法,可通过最优路径实现内外网访问。 3.可以抵御DoS和 DDoS攻击有效的保护内网服务器。 为什么选择梭子鱼: 1、聚合链路带宽

几种负载均衡策略比较~

PS:Nginx/LVS/HAProxy是目前使用最广泛的三种负载均衡软件,本人都在多个项目中实施过,参考了一些资料,结合自己的一些使用经验,总结一下。 一般对负载均衡的使用是随着网站规模的提升根据不同的阶段来使用不同的技术。具体的应用需求还得具体分析,如果是中小型的Web应用,比如日PV小于1000万,用Nginx就完全可以了;如果机器不少,可以用DNS轮询,LVS所耗费的机器还是比较多的;大型网站或重要的服务,且服务器比较多时,可以考虑用LVS。一种是通过硬件来进行进行,常见的硬件有比较昂贵的F5和Array等商用的负载均衡器,它的优点就是有专业的维护团队来对这些服务进行维护、缺点就是花销太大,所以对于规模较小的网络服务来说暂时还没有需要使用;另外一种就是类似于Nginx/LVS/HAProxy的基于Linux的开源免费的负载均衡软件,这些都是通过软件级别来实现,所以费用非常低廉。 目前关于网站架构一般比较合理流行的架构方案:Web前端采用 Nginx/HAProxy+Keepalived作负载均衡器;后端采用MySQL数据库一主多从和读写分离,采用LVS+Keepalived的架构。当然要根据项目具体需求制定方案。 下面说说各自的特点和适用场合。 一、Nginx Nginx的优点是: 1、工作在网络的7层之上,可以针对http应用做一些分流的策略,比如针对域名、目录结构,它的正则规则比HAProxy更为强大和灵活,这也是它目前广泛流行的主要原因之一,Nginx单凭这点可利用的场合就远多于LVS了。 2、Nginx对网络稳定性的依赖非常小,理论上能ping通就就能进行负载功能,这个也是它的优势之一;相反LVS对网络稳定性依赖比较大,这点本人深有体会; 3、Nginx安装和配置比较简单,测试起来比较方便,它基本能把错误用日志打印出来。LVS的配置、测试就要花比较长的时间了,LVS对网络依赖比较大。 3、可以承担高负载压力且稳定,在硬件不差的情况下一般能支撑几万次的并发量,负载度比LVS相对小些。 4、Nginx可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等,并且会把返回错误的请求重新提交到另一个节点,不过其中缺点就是不支持url来检测。比如用户正在上传一个文件,而处理该上传的节点刚好在上传过程中出现故障,Nginx会把上传切到另一台服务器重新处理,而LVS就直接断掉了,如果是上传一个很大的文件或者很重要的文件的话,用户可能会因此而不满。 5、Nginx不仅仅是一款优秀的负载均衡器/反向代理软件,它同时也是功能强大的Web应用服务器。LNMP也是近几年非常流行的web架构,在高流量的环境中稳定性也很好。 6、Nginx现在作为Web反向加速缓存越来越成熟了,速度比传统的Squid服务器更快,可以考虑用其作为反向代理加速器。 7、Nginx可作为中层反向代理使用,这一层面Nginx基本上无对手,唯一可以对比

F5链路负载均衡解决方案实例

南京财经大学 F5 Link Controller多链路负载均衡 解决方案

目录 1. 项目背景分析 (4) 1.1 南京财经大学的现状 (4) 1.2 链路改造后的预期设想 (4) 2. F5提供的最佳解决方案 (6) 2.1 设计结构图: (6) 2.2 实现原理 (7) 2.2.1 出站访问 (7) 2.2.2 入站访问 (8) 2.2.3 系统切换时间 (10) 3. 解决方案功能介绍 (11) 3.1 高可用性 (11) 3.1.1 全面的链路监控能力 (11) 3.1.2 集合多个监视器 (12) 3.2 最大带宽和投资回报 (13) 3.2.1 可节省WAN 链路成本的压缩模块 (13) 3.2.2 带宽可扩展性 (13) 3.2.3 强大的流量分配负载均衡算法 (14) 3.2.4 链路带宽控制 (14) 3.2.5 链路成本负载平衡 (15) 3.3 高级WAN 链路管理 (15) 3.3.1 最佳性能链路 (15) 3.3.2 针对压缩技术的目标流量控制 (16) 3.3.3 优化的TCP 性能 (16) 3.3.4 可编程链路路由――iRule (16)

3.3.5 流量优先级安排:服务质量(QoS) 和配置服务类型(ToS) . 17 3.4 配置和管理 (17) 3.4.1 消除BGP 多归属部署障碍 (17) 3.4.2 BIG/IP的业界最快双机冗余切换 (17) 3.4.3 IPv6 网关 (18) 3.4.4 统计与报告 (18) 3.5 强化的安全性能 (18) 3.5.1 智能SNAT (18) 3.5.2 网络安全 (19) 3.5.3 简单、安全的管理 (19) 3.6 集成流量管理可扩展性 (20) 3.6.1 扩展的各类安全设备负载均衡 (20) 3.6.2 扩展的SSL加速适用于校园一卡通等 (21) 4. 相关产品介绍 (22)

多链路接入及服务器负载均衡

某铁路集团多链路接入及服务器负载均衡 项目概况: 1.该用户为国内某铁路集团 2.用户有一个主数据中心同时接入电信和网通和联通线路 3.客户集团内部用户对内流量和对外流量日益增长 4.内部的服务器应用需要具有高可靠性,能够满足日常在线的web更新。 客户需求: 1.实现内部用户外出访问时的链路负载均衡,访问网通的web时候走网通链路,但是当网通链路段掉了还要可以从其它线路外出访问。

2.内部的应用服务器也需要inbound的负载均衡。 3.用户一部分旧型号机器需要和新型号设备一起按照一定权重来提供某一种应用。 4.所有的服务器需要7*24小时的不间断服务基础上实现在线的更新动作。 5.在将来有很好的扩展性,还可以灵活增加新的接入链路而不涉及内部改动。 6.要求方案设计简单,部署容易在将来有很好的扩展性,还可以灵活增加新的接入链路而不涉及内部改动。 F5 的解决方案: 1.采用两台1500LC来实现HA双机的99.999%高可用。 2.对外连接3条链路,出口通过Irule来实现静态的最优路径选择,进来的流量通过动态探测+静态拓扑来实现智能入站链路的负载均衡。 3.根据静态的比率算法来实现对内部不同性能服务器的负载均衡。 4.需要对后台业务服务器进行升级维护的时候,利用F5温暖关机的特性,阻止用户的新建连接,保持在线用户的连接,直到在线廉洁树下降到零,再由网管人员将服务器下线。 5.通过F5 灵活的TCP 优化及会话保持技术满足业务应用需求。 为什么选择F5: 1.F5 负载均衡器双机心跳线方式提供毫秒级快速切换,是诸如客票系统这样的关键业 务系统所必需的。 2.F5 负载均衡器高性能高稳定性在中国诸多用户业务环境中得到证实。 3.高效灵活的链路选择能力,可以根据客户需求进行动静态的处理。 4.稳定而简单的结构部署:整个部署和实施过程,不需要影响到原有的拓扑结构,在 经过实验验证可行后,可以整套架构直接插入原有拓扑结构中间,不涉及任何网络 改动,实现无缝的整合和接入。 5.通过透明监控检查ISP 网络或互联网上各个设备的可用性来确定整个链路的可用性。

链路负载均衡解决方案

Array Networks 链路负载均衡解决方案 -Array APV系列、AppVelocity应用于企业网络优化

目录 1. 多链路接入背景介绍 (3) 1.1 单链路接入单点故障 (3) 1.2 运营商之间互访 (4) 1.3 双链路解决方案的产生以及其衍生的问题 (4) 2. Array 提供最佳的解决方案 (6) 2.1 方案介绍 (6) 2.2 流出(Outbound)流量处理 (7) 2.3 其它重要功能设置: (8) 2.4 流入(Inbound)流量处理 (8) 3. 解决方案功能特点介绍 (10) 3.1. 全面的链路监控能力 (10) 3.2. 全路经健康检查 (10) 3.3. 策略路由 (11) 3.4. APV-LLB的链路负载均衡解决方案具有以下功能和优点: (11) 3.5. 链路优化功能与其他应用性能提高功能 (11) 3.5.1. Http 压缩功能 (11) 3.5.2. Cache 功能 (11) 3.5.3. Connection Multiplexing(连接复用)技术 (12) 3.5.4. Connection Pooling(连接池)技术 (12) 3.5.5. Array SpeedStack?技术 (12) 3.6. 安全防护功能 (13) 3.7. Cluster技术 (13) 3.8. Array APV 配置管理 (14) 3.9. 可扩展性 (14) 3.9.1. 服务器负载均衡与广域网负载均衡 (14) 3.9.2. 扩展的SSL加速适用于电子商务 (14) 4. 链路负载均衡对企业的价值 (14)

数据库负载均衡解决方案

双节点数据库负载均衡解决方案 问题的提出? 在SQL Server数据库平台上,企业的数据库系统存在的形式主要有单机模式和集群模式(为了保证数据库的可用性或实现备份)如:失败转移集群(MSCS)、镜像(Mirror)、第三方的高可用(HA)集群或备份软件等。伴随着企业的发展,企业的数据量和访问量也会迅猛增加,此时数据库就会面临很大的负载和压力,意味着数据库会成为整个信息系统的瓶颈。这些“集群”技术能解决这类问题吗?SQL Server数据库上传统的集群技术 Microsoft Cluster Server(MSCS) 相对于单点来说Microsoft Cluster Server(MSCS)是一个可以提升可用性的技术,属于高可用集群,Microsoft称之为失败转移集群。 MSCS 从硬件连接上看,很像Oracle的RAC,两个节点,通过网络连接,共享磁盘;事实上SQL Server 数据库只运行在一个节点上,当出现故障时,另一个节点只是作为这个节点的备份; 因为始终只有一个节点在运行,在性能上也得不到提升,系统也就不具备扩展的能力。当现有的服务器不能满足应用的负载时只能更换更高配置的服务器。 Mirror 镜像是SQL Server 2005中的一个主要特点,目的是为了提高可用性,和MSCS相比,用户实现数据库的高可用更容易了,不需要共享磁盘柜,也不受地域的限制。共设了三个服务器,第一是工作数据库(Principal Datebase),第二个是镜像数据库(Mirror),第三个是监视服务器(Witness Server,在可用性方面有了一些保证,但仍然是单服务器工作;在扩展和性能的提升上依旧没有什么帮助。

A10服务器负载均衡解决方案解读

*****单位 A10负载均衡解决方案A10 Networks Inc.

目录 1.项目概述 (1) 2.需求分析及讨论 (1) 2.1应用系统所面临的共性问题 (1) 2.2需求分析 (2) 3.A10公司负载均衡解决方案 (3) 3.1网络结构图 (3) 3.2A10负载均衡解决方案 (3) 3.2.1APP Server负载均衡的实现 (4) 3.2.2应用优化的实现 (4) 3.3解决方案说明 (5) 3.4方案的优点 (6) 4.A10 AX的优点及各型号指标总结 (7) 5.A10公司简介 (7) 6.AX介绍 (8) 6.1A10公司AX简介 (8) AX系列功能 (8)

1.项目概述 2.需求分析及讨论 2.1应用系统所面临的共性问题 随着用户量增大及业务的发展,一个应用系统往往会出现各种问题。瓶颈可能出现在服务器、存储、网络设备,带宽等的性能不足,而运行一旦出现故障给业务带来的影响范围是巨大的,服务器可能出现的问题表现为如下几点: ◆高可用问题 关健性应用要求7*24稳定运行不被中断,高可用性问题被放在首要位置。 ◆利用“不平衡”现象 数据的大集中使得服务器的访问压力日益增大,服务器性能往往会成为一个系统的瓶 颈,随着性能问题的产生,单点故障的发生也将比较频繁,为了解决这些问题,传统的方式多为采取更换更好的服务器并且采用双机备份系统提供服务的方式,这样必然存在 一半的资源浪费的情况,而在压力不断上升的情况下,这种动作讲不断的重复,不但服 务器的利用率不平衡,而且持续引起投资的浪费。 ◆“峰值”问题 服务器的处理多存在“波峰”和“波谷”的变化。而且“波峰”时,业务量大小的变化又不规律,这就使服务器不得不面对“峰值堵塞”问题。原有解决方法为增加服务器或主机数量,提高处理能力。但仍存在性能不平衡问题,且这样做,投资成本大。 ◆多米诺”现象 单台服务器的设置,不可避免会出现“单点故障”,需要进行服务器“容错”。为实现容错,往往在主服务器旁安置一台或多台备份服务器。但这样做,平时只有一台服务器工作,其它服务器处于空闲状态,无法完全利用所有服务器的处理资源,当出现“峰值堵塞”时,“多米诺”效应往往会发生,即所有服务器连续被“堵”至“死”。最终的结果将导致系统的瘫痪。 ◆“扩展”不便

负载均衡解决方案设计设计

一、用户需求 本案例公司中现有数量较多的服务器群: WEB网站服务器 4台 邮件服务器 2台 虚拟主机服务器 10台 应用服务器 2台 数据库 2台(双机+盘阵) 希望通过服务器负载均衡设备实现各服务器群的流量动态负载均衡,并互为冗余备份。并要求新系统应有一定的扩展性,如数据访问量继续增大,可再添加新的服务器加入负载均衡系统。 二、需求分析 我们对用户的需求可分如下几点分析和考虑: 1.新系统能动态分配各服务器之间的访问流量;同时能互为冗余,当其中 一台服务器发生故障时,其余服务器能即时替代工作,保证系统访问的 不中断; 2.新系统应能管理不同应用的带宽,如优先保证某些重要应用的带宽要 求,同时限定某些不必要应用的带宽,合理高效地利用现有资源;

3.新系统应能对高层应用提供安全保证,在路由器和防火墙基础上提供了 更进一步的防线; 4.新系统应具备较强的扩展性。 o容量上:如数据访问量继续增大,可再添加新的服务器加入系统; o应用上:如当数据访问量增大到防火墙成为瓶颈时,防火墙的动态负载均衡方案,又如针对链路提出新要求时关于Internet访问 链路的动态负载均衡方案等。 三、解决方案 梭子鱼安全负载均衡方案总体设计 采用服务器负载均衡设备提供本地的服务器群负载均衡和容错,适用于处在同一个局域网上的服务器群。服务器负载均衡设备带给我们的最主要功能是:

当一台服务器配置到不同的服务器群(Farm)上,就能同时提供多个不同的应用。可以对于每个服务器群设定一个IP地址,或者利用服务器负载均衡设备的多TCP端口配置特性,配置超级服务器群(SuperFarm),统一提供各种应用服务。

多链路负载均衡标准结构及阐述

多链路负载均衡标准结构及阐述 F5 Networks Inc. Owen Yu 2004-12-1

目录 一、F5多链路负载均衡标准结构 (3) 1.1 标准结构拓扑图 (3) 1.2 技术阐述 (3) 二、域名解析方式 (10) 2.1 Root DNS Server直接与F5多链路负载均衡器配合 (10) 2.1.1 CNAME方式 (10) 2.1.2 NS委派方式 (11) 2.2 Root DNS Server通过第三方DNS Server与F5多链路负载 均衡器配合 (12) 2.2.1 CNAME方式 (12) 2.2.2 NS方式 (13) 三、F5多链路负载均衡其它结构及阐述 (14) 3.1冗余结构 (14) 3.2与防火墙配合的结构 (15) 3.2.1后置防火墙 (15) 3.2.2前置防火墙 (16)

一、F5多链路负载均衡标准结构 1.1 标准结构拓扑图 下图是F5多出口链路负载均衡解决方案的标准结构(单台设备)。 1.2 技术阐述 网络环境描述 上图中F5 多链路负载均衡设备通过ISP1和ISP2接入Internet。每个ISP 都分配给该网络一个IP地址网段,假设ISP1分配的地址段为100.1.1.0/24,ISP2

分配的地址段为200.1.1.0/24(此处的200.1.1.0/24表示网络IP地址段为:200.1.1.0,子网掩码为24位,即255.255.255.0)。同样,Internet知道通过ISP1访问100.1.1.0/24,通过ISP2访问200.1.1.0/24。网络中的主机和服务器都属于私有网段192.168.1.0/24。 F5多链路负载均衡设备解决方案就是在内部交换机和连接ISP的路由器之间,跨接一台多链路负载均衡设备应用交换机,所有的地址翻译和Internet链路优化全部由多链路负载均衡设备来完成。 Outbound技术实现 ?Default Gateway Pool For Example: pool default_gateway_pool { lb_method dynamic_ratio member 100.1.1.1:0 member 200.1.1.1:0 } Default Gateway Pool中的Nodes为若干个下一跳路由器(Next Hop Router)的地址,用作Outbound负载均衡,可以通过三种方式生成。 1、 Setup Utility中配置多个Gateway IP,用空格分开; 2、在Configuration Utility中Link Configuration下增加多个links; 3、在Pool中定义一个Default Gateway Pool。 For Example:default_gateway use pool default_gateway_pool 将Default Gateway Pool中的Nodes配置为F5多链路负载均衡器的Default Gateway,可以通过netstat –rn命令查看路由表。 Destination Gateway Flags MTU If default 100.1.1.1 UGS 1500 vlan2 default 200.1.1.1 UGS 1500 vlan3 ? Monitor

A10服务器负载均衡解决方案解读

1SJ tit works ***** 单位 A10负载均衡解决方案 A10 Networks Inc. 1SJ tit works

目录 1.项目概述 (1) 2.需求分析及讨论 (1) 2.1应用系统所面临的共性问题 (1) 2.2需求分析 (2) 3.A10公司负载均衡解决方案 (3) 3.1网络结构图 (3) 3.2A10负载均衡解决方案 (3) 3.2.1APP Server负载均衡的实现 (4) 3.2.2应用优化的实现 (4) 3.3解决方案说明 (5) 3.4方案的优点 (6) 4.A10 AX的优点及各型号指标总结 (7) 5.A10公司简介 (7) 6.AX介绍 (8) 6.1 A10公司AX简介 (8) AX系列功能 (8)

1. 项目概述 2. 需求分析及讨论 2.1应用系统所面临的共性问题 随着用户量增大及业务的发展,一个应用系统往往会出现各种问题。瓶颈可能出现在服务器、存储、网络设备,带宽等的性能不足,而运行一旦出现故障给业务带来的影响范围是巨大的,服务器可能出现的问题表现为如下几点: ?高可用问题 关健性应用要求7*24稳定运行不被中断,高可用性问题被放在首要位置。 ?利用“不平衡”现象 数据的大集中使得服务器的访问压力日益增大,服务器性能往往会成为一个系统的瓶颈,随着性能问题的产生,单点故障的发生也将比较频繁,为了解决这些问题,传统的方式多为采取更换更好的服务器并且采用双机备份系统提供服务的方式,这样必然存在 一半的资源浪费的情况,而在压力不断上升的情况下,这种动作讲不断的重复,不但服务器的利用率不平衡,而且持续引起投资的浪费。 ?“峰值”问题 服务器的处理多存在“波峰”和“波谷”的变化。而且“波峰”时,业务量大小的变化又不规律,这就使服务器不得不面对“峰值堵塞”问题。原有解决方法为增加服务器或主机数量,提高处理能力。但仍存在性能不平衡问题,且这样做,投资成本大。 ?多米诺”现象 单台服务器的设置,不可避免会出现“单点故障”,需要进行服务器“容错”。为实现容错,往往在主服务器旁安置一台或多台备份服务器。但这样做,平时只有一台服务器工作,其它服务器处于空闲状态,无法完全利用所有服务器的处理资源,当出现“峰值堵塞”时,“多米 诺”效应往往会发生,即所有服务器连续被“堵”至“死”。最终的结果将导致系统的瘫痪。 ?“扩展”不便 随着物理和应用的集中,服务器上所要处理的数据量(traffic )增大,客户交易产生

多链路负载均衡+智能DNS高校解决方案

冰川网络出口链路负载均衡系统 解决方案 郑州冰川网络科技有限公司

目录 1 需求分析 (3) 1.1 单一链路导致单点故障和访问迟缓 (3) 1.2 传统解决方案无法完全发挥多链路优势 (4) 1.3 高校出口面临的问题: (5) 2 冰川网络多链路负载均衡解决方案 (5) 2.1 链路优选方案 (6) 2.2 链路健康检测 (7) 2.3 流入(Inbound)流量处理 (8) 2.4 流出(OutBount)流量处理 (9) 2.5 基于ASIC芯片的NA T及路由技术 (9) 3 冰川独特优势 (9) 3.1 基于ASIC转发技术和传统CPU的灵活性完美结合 (9) 3.2 基于协议的链路负载技术 (9) 3.3 多点探测技术(Multi-Detection Technology) (10) 3.4 人性化的配置界面 (10) 4 设备管理 (10) 5 典型网络部署方案 (12) 6 总结 (14)

1 需求分析 目前很多企业为了提高信息发布的性能和可靠性,向多个电信运营商同时租用互联网线路,所以拥有两条或两条以上的互联网连接链路,这些用户希望分别通过多条链路使用网络平台和资源,但是这样的网络出口建设形式,暴露出以下问题,并亟待解决。 1.1 单一链路导致单点故障和访问迟缓 用户的网络结构通常如下:单一链路实现内部网络和Internet之间的连接。 而在Internet接入的稳定性对于一个用户来说日见重要的今天,一个ISP 显然无法保证它提供的Internet链路的持续可用性,从而可能导致用户Internet接入的中断,带来无法预计的损失。 而且由于历史原因,不同ISP的互连互通一直存在着很大的问题,在南方电信建立的应用服务器,如果是南方电信用户访问正常,Ping的延时只有几十甚至十几毫秒,对用户的正常访问几乎不会造成影响;但如果是北方网通的远程用户访问,Ping的延时只有几百甚至上千毫秒,访问应用时则会出现没有响应设

F5多出口链路负载均衡解决方案(LC)1127

F5多出口链路负载均衡解决方案(L C)1127 -标准化文件发布号:(9456-EUATWK-MWUB-WUNN-INNUL-DDQTY-KII

F5 Networks 多出口链路负载均衡解决方案建议

目录 一.多出口链路负载均衡需求分析 ................................................................ 错误!未定义书签。 二.多出口链路负载均衡解决方案概述......................................................... 错误!未定义书签。 多出口链路负载均衡网络拓朴设计 ................................................................. 错误!未定义书签。方案描述 ............................................................................................................. 错误!未定义书签。方案优点 ............................................................................................................. 错误!未定义书签。 拓扑结构方面.................................................................................................. 错误!未定义书签。 安全机制方面................................................................................................... 错误!未定义书签。 三.技术实现 ................................................................................................. 错误!未定义书签。 F5多出口链路负载均衡(产品选型:B IGIP LC) ............................................ 错误!未定义书签。O UTBOUND流量负载均衡实现原理 .................................................................... 错误!未定义书签。 I NBOUND流量负载均衡实现原理........................................................................ 错误!未定义书签。 在链路负载均衡环境中的DNS设计和域名解析方式.................................... 错误!未定义书签。 Root DNS(注册DNS)直接与F5多链路负载均衡器配合......................... 错误!未定义书签。 Root DNS(注册DNS)通过第三方DNS Server与F5多链路负载均衡器配合(我们建议这种方式)........................................................................................................... 错误!未定义书签。F5设备双机冗余----毫秒级切换原理............................................................... 错误!未定义书签。S TATEFUL F AIL O VER 技术(与F5设备双机冗余有关) ........................................ 错误!未定义书签。四.产品介绍 ................................................................................................. 错误!未定义书签。 F5B IGIP ................................................................................................................ 错误!未定义书签。

(完整版)F5服务器负载均衡解决方案要点

F5服务器负载均衡解决方案 目录 一.大量数据处理所面临的问题 (2) 1.目前存在隐患 (3) 2.应用系统问题综述 (3) 1)“峰值”问题 (4) 2)多米诺”现象 (4) 3)“N+1”方式 (4) 4)“扩展”不便 (5) 5)“免疫力”差 (5) 6)“容灾”.................................................................................... 错误!未定义书签。 7)应用与网络脱节 (6) 二.F5解决方案 (6) 2.1 网络结构 (6) 2.2 方案优势 (7) 2.2.1避免“不平衡”现象 (7) 2.2.2解决因“峰值堵塞”带来的性能调整“不平衡” (9) 2.2.3避免“多米诺”现象 (9) 2.2.4更好的提供系统容错,提高系统可靠性 (10) 2.2.5“扩展”灵活 (11) 2.2.6“免疫力”强 (12) 2.2.7“容灾” (13) 2.2.8网络感知应用,应用控制网络 (14) 三.相关技术资料 (17) BIG-IP提供支持99.999%的正常运行 (17) 四.成功案例 (19) F5为中国某税务机关提供高可用性解决方案 (19)

一.大量数据处理所面临的问题 在现今的企业中,不论是否提供关键性任务的服务,都需要一个持续运行不断的高可用性网络计算环境以维持不间断的高品质服务。所谓高可用性的环境,也是信息管理人员所必须考虑的四件事: 1.使数据有一个安全的存储和运作方式,即使在设备故障时仍能保持数据的完整 一致。 2.使服务器系统持续运行,即使发生故障仍然让服务持续下去。 3.使整个计算环境能更好的管理,如何容错、容灾、集群共享。 4.如何使投资有最好的效益,使系统有最佳的扩充能力,有最低的整体拥有成本, 也就是在任何情况之下均能确保数据的完整一致,系统持续运行,使服务不间 断,同时有最好的投资回报率。 高可用性被定义为计算系统的连续运行。根据故障停机的业务影响,应用系统需要不同的可用性水平。要想实现一个应用系统的高可用性,所有组件(包括应用和数据库服务器、存储设备以及端到端网络)都需要提供连续的服务。 企业和机构对网络化应用及Internet 的日益依赖,加上语音和数据的集成,创造了对高可用性应用的增加需求。任何类型的系统故障停机都可能意味着收入、信誉和客户满意的巨大损失。 高度网络可用性的利用,企业实施高可用性网络来: ?防止财务损失 ?防止生产力损失 ?改进用户满意度 ?改进客户满意/信任 ?降低反应性IT支持成本,提高IT生产力 ?部署关键任务应用支持新业务实践的好处 ?典型的业务要求 为了实现高度的网络可用性,需要部署下列组件:

策略路由应用实例:多链路负载均衡

唱响夏日激情,勇争博客,八月之争烽烟再起!博主的更多文章>> 一、策略路由简介 基于策略的路由允许应用一个策略控制数据包应如何走而非基于路由表选路。IP路由基于目标地,而PBR允许基于源的路由,即来自何处而应到哪去,从而根据需要走一条特殊的路径。 在网络中实施基于策略的路由有以下优点: 1、基于源的供应商选择:通过策略路由使源于不同用户组的数据流选择经过不同的Inte rnet连接。 2、服务质量:可以通过在网络边缘路由器上设置IP数据包包头中的优先级或TOS值,并利用队列机制在网络核心或主干中为数据流划分不同的优先级,来为不同的数据流提供不同级别的QoS。 3、负载均衡:网络管理员可以通过策略路由在多条路径上分发数据流。 4、网络管理更加灵活。 二、双出口配置实例 (一)实验拓朴: (二)实验要求: 1、R1连接本地子网,R2为边缘策略路由器,R3模拟双ISP接入的Internet环境。 2、要求R1所连接的局域网部分流量走R2-R3间上条链路(ISP1链路),部分流量走R2-R3间下条链路(ISP2链路)从而实现基于源的供应商链路选择和网络负载均衡。 (三)各路由器配置如下: R1#sh run . …… interface Loopback0 .

…… interface FastEthernet0/0 ip address ip policy route-map isp-test Tracing the route to 1 7 2 msec 216 msec 276 msec 2 288 msec 360 msec * Tracing the route to 1 9 2 msec 188 msec 52 msec 2 416 msec 436 msec * Tracing the route to 1 136 msec 40 msec 144 msec 2 356 msec * 132 msec Tracing the route to 1 28 msec 104 msec 200 msec 2 300 msec * 196 msec //ISP2入口 ----------------------------------------------------- (五)小结: 通过以上实验,可以看到子网一()的流量都经过R2-R3的上一条链路选择了ISP1链路,子网二()的流量都经过R2-R3的下一条链路选择了ISP2链路。所以通过策略路由实现基于源的供应商选择和网络的负载均衡。

相关文档
最新文档