多链路负载均衡+智能DNS高校解决方案

合集下载

黄淮学院智能DN解决方案DNS方案模板

黄淮学院智能DN解决方案DNS方案模板

黄淮学院西默智能DNS解决方案目录一、互联网现状 (1)1、多运营商背景及造成的问题 (1)二、黄淮学院需求分析 (2)1、学院简介 (2)2、网络存在的问题 (2)三、西默智能dns介绍 (3)1、西默智能DNS价值分析 (3)2、西默智能DNS产品功能 (4)3、主要功能特色 (6)4、部署方式 (6)5、技术解决方案 (7)6、DNS相关荣誉证书 (10)7、典型案例 (12)四、西默智能DNS解决方案 (13)1、拓扑及部署简介 (13)2、实施方案 (13)3、实现功能 (15)五、测试方案 (15)1、目的 (15)2、背景 (15)3、测试项目 (15)4、测试方案 (16)1)、多线路智能解析功能测试 (16)2)、速度测试(DNS对站的加速效能) (16)3)、DNS的解析性能 (19)4)、DNS的黑名单过滤功能 (20)5)、DNS的自助申请功能 (21)6)、DNS的线路监控和故障自动转换功能 (22)7)、DNS的自动升级功能 (23)8)、智能DNS的数据备份恢复功能 (23)9)、智能DNS的日志与状态查看功能 (23)10)、智能DNS的双机热备功能 (24)11)、智能DNS的故障告警功能 (25)12)、智能DNS的稳定性 (25)5、测试效果表 (25)1)、多线路智能解析功能测试结果 (25)2)、速度测试(DNS对站的加速效能) (26)3)、DNS的解析性能 (26)4)、DNS的黑名单过滤功能 (26)5)、DNS的自助申请功能 (27)6)、DNS的线路监控和故障自动转换功能 (27)7)、DNS的自动升级功能 (27)8)、智能DNS的数据备份恢复功能 (27)9)、智能DNS的日志与状态查看功能 (28)10)、智能DNS的双机热备功能 (28)11)、智能DNS的故障告警功能 (28)12)、智能DNS的稳定性 (28)一、互联网现状1、多运营商背景及造成的问题中国各运营商重组之后,由原来的六家运营商变成了现在的三家运营商,有中国移动,中国电信,新联通等,再加上教育网现在大概存在这么四家运营商,虽然进行了重组,但当前中国网络多运营商的格局仍没有改变,互联互通的问题也依然存在,也就是常说的跨网访问瓶颈问题。

多链路负载均衡解决方案

多链路负载均衡解决方案

多链路负载均衡解决方案一、概述多链路负载均衡解决方案是一种网络技术,旨在通过合理分配流量和资源,提高网络性能和可靠性。

该解决方案通过将流量分发到多个链路上,实现负载均衡,从而提高系统的吞吐量和响应速度。

本文将详细介绍多链路负载均衡解决方案的原理、实施步骤以及相关技术。

二、原理多链路负载均衡解决方案基于以下原理:1. 链路选择:根据链路的性能指标(如带宽、延迟、丢包率等),选择最佳的链路进行数据传输。

2. 流量分发:将输入流量分发到多个链路上,使得每条链路上的负载相对均衡,避免单一链路过载。

3. 流量监测:实时监测链路的性能指标和负载情况,根据监测结果动态调整链路选择和流量分发策略。

三、实施步骤实施多链路负载均衡解决方案的步骤如下:1. 网络规划:根据实际需求和网络拓扑,设计合理的网络架构,包括链路配置、设备部署等。

2. 链路测量:通过网络测量工具对各个链路进行测量,获取链路的性能指标,如带宽、延迟、丢包率等。

3. 负载均衡策略设计:根据链路的性能指标和负载情况,设计合适的负载均衡策略,包括链路选择算法、流量分发算法等。

4. 配置负载均衡设备:根据负载均衡策略,配置负载均衡设备,如负载均衡器、路由器等,将其与网络中的各个链路连接起来。

5. 流量监测与调整:实时监测链路的性能指标和负载情况,根据监测结果对负载均衡策略进行调整,以达到最佳的负载均衡效果。

四、相关技术实施多链路负载均衡解决方案需要借助以下技术:1. 负载均衡器:负载均衡器是实现负载均衡的关键设备,它可以根据预设的负载均衡策略,将输入流量分发到多个链路上。

2. 链路测量工具:链路测量工具用于测量链路的性能指标,如带宽、延迟、丢包率等。

3. 链路选择算法:链路选择算法根据链路的性能指标,选择最佳的链路进行数据传输。

常用的链路选择算法有最短路径算法、加权轮询算法等。

4. 流量分发算法:流量分发算法用于将输入流量分发到多个链路上,使得每条链路上的负载相对均衡。

多链路负载均衡解决方案

多链路负载均衡解决方案

多链路负载均衡解决方案引言概述:在当今互联网时代,网络流量不断增加,对网络带宽和性能的要求也越来越高。

为了提高网络的可用性和性能,多链路负载均衡解决方案应运而生。

本文将介绍多链路负载均衡的概念及其解决方案,并详细阐述其在网络中的应用。

一、多链路负载均衡的概念1.1 多链路负载均衡的定义多链路负载均衡是一种网络技术,通过将网络流量分散到多个链路上,以实现负载均衡和提高网络性能。

它可以将网络流量分发到多个链路上,避免单一链路的拥堵,提高网络的可用性和吞吐量。

1.2 多链路负载均衡的原理多链路负载均衡通过使用负载均衡算法,将网络流量分发到多个链路上。

它可以根据不同的负载均衡策略,如轮询、加权轮询、最小连接数等,将流量分发到不同的链路上,使得每个链路都能得到合理的负载,提高网络的性能和可用性。

1.3 多链路负载均衡的优势多链路负载均衡可以提供更高的带宽和更好的性能。

通过将流量分发到多个链路上,它可以充分利用网络资源,避免链路的拥堵,提高网络的吞吐量。

同时,多链路负载均衡还可以提高网络的可用性,当某个链路故障时,可以自动将流量切换到其他正常的链路上,保证网络的连通性。

二、多链路负载均衡的应用2.1 企业网络在企业网络中,多链路负载均衡可以提高网络的性能和可用性。

通过将流量分发到多个链路上,它可以充分利用企业的网络资源,提高网络的吞吐量。

同时,当某个链路故障时,多链路负载均衡可以自动将流量切换到其他正常的链路上,保证企业网络的连通性。

2.2 数据中心在数据中心中,多链路负载均衡可以提高服务器的负载均衡和性能。

通过将流量分发到多个服务器上,它可以避免单一服务器的过载,提高服务器的处理能力。

同时,多链路负载均衡还可以提供高可用性,当某个服务器故障时,可以自动将流量切换到其他正常的服务器上,保证数据中心的正常运行。

2.3 云计算在云计算环境中,多链路负载均衡可以提高云服务的性能和可用性。

通过将流量分发到多个云服务器上,它可以充分利用云计算资源,提高云服务的吞吐量。

多链路负载均衡解决方案

多链路负载均衡解决方案

多链路负载均衡解决方案一、概述多链路负载均衡解决方案是一种用于分发网络流量的技术,通过将流量分散到多个链路上,实现网络负载均衡,提高网络性能和可靠性。

本文将介绍多链路负载均衡解决方案的工作原理、优势和实施步骤。

二、工作原理多链路负载均衡解决方案基于流量分发算法,将进入网络的流量分发到多个链路上,使得每条链路的负载相对均衡。

具体工作原理如下:1. 流量分析:多链路负载均衡解决方案会对进入网络的流量进行分析,包括流量的源IP、目标IP、协议类型等信息。

2. 负载计算:根据流量分析的结果,多链路负载均衡解决方案会计算每条链路的负载情况,包括当前的负载量、带宽利用率等。

3. 负载分发:根据负载计算的结果,多链路负载均衡解决方案会将流量分发到负载较低的链路上,以实现负载均衡。

4. 监控与调整:多链路负载均衡解决方案会实时监控链路的负载情况,并根据需要调整流量分发策略,以适应网络负载的变化。

三、优势多链路负载均衡解决方案具有以下优势:1. 提高性能:通过分散流量到多个链路上,多链路负载均衡解决方案可以充分利用网络资源,提高网络性能和吞吐量。

2. 提高可靠性:多链路负载均衡解决方案可以实现链路冗余,当某条链路故障时,流量会自动切换到其他正常的链路上,提高网络的可用性和可靠性。

3. 灵活配置:多链路负载均衡解决方案支持灵活的配置选项,可以根据实际需求进行调整,满足不同场景的负载均衡需求。

4. 可扩展性:多链路负载均衡解决方案可以支持多个链路,可以根据需要扩展链路的数量,以适应不断增长的网络流量。

四、实施步骤实施多链路负载均衡解决方案的步骤如下:1. 网络规划:根据实际网络环境和需求,进行网络规划,确定需要实施多链路负载均衡的链路和设备。

2. 设备选择:根据网络规划,选择适合的多链路负载均衡设备,确保设备具备足够的性能和可靠性。

3. 配置设备:根据设备的使用手册,进行设备的基本配置和网络参数的设置,确保设备能够正常工作。

多链路负载均衡解决方案

多链路负载均衡解决方案

多链路负载均衡解决方案一、引言多链路负载均衡是一种网络技术,旨在实现网络流量的平衡分配,提高网络性能和可用性。

本文将介绍多链路负载均衡的基本原理、常见的解决方案以及其优势和应用场景。

二、多链路负载均衡的基本原理多链路负载均衡通过将流量分发到多个链路上,以平衡网络负载。

其基本原理如下:1. 选择最佳链路:根据链路的负载情况、带宽和延迟等指标,选择最佳的链路来分发流量。

2. 流量分发算法:采用不同的算法,如轮询、加权轮询、至少连接数等,将流量均匀地分发到各个链路上。

3. 健康检查:定期对链路进行健康检查,排除异常链路,确保流量的正常分发。

三、常见的多链路负载均衡解决方案1. 硬件负载均衡器:使用专用硬件设备,如F5 BIG-IP、Cisco ACE等,提供高性能的负载均衡功能。

这些设备通常具有丰富的功能和灵便的配置选项,适合于大规模和高性能的网络环境。

2. 软件负载均衡器:基于软件的解决方案,如Nginx、HAProxy等,通过在普通服务器上运行负载均衡软件来实现负载均衡功能。

这些软件具有较低的成本、易于部署和管理的优势,适合于中小规模的网络环境。

3. DNS负载均衡:通过在DNS服务器中配置多个IP地址,将流量分发到不同的服务器上。

这种解决方案简单易用,但对于长连接和会话保持等特殊需求支持较差。

4. SD-WAN:软件定义广域网技术,通过智能路由和负载均衡功能,将流量分发到不同的链路上,提供更好的网络性能和可用性。

SD-WAN具有集中管理、智能路由和安全加密等特点,适合于分布式网络环境。

四、多链路负载均衡的优势1. 提高性能:通过将流量均匀地分发到多个链路上,避免单一链路的过载,提高网络性能和响应速度。

2. 增强可用性:当某个链路发生故障时,多链路负载均衡可以自动将流量切换到其他正常的链路上,保证网络的可用性。

3. 扩展带宽:通过增加链路数量,多链路负载均衡可以扩展网络带宽,满足不断增长的流量需求。

链路负载均衡DNS四层及七层代理解决方案

链路负载均衡DNS四层及七层代理解决方案

A10 Networks解决方案
A10 Networks针对以上问题提供两种解决方案:DNS四层代理和DNS七层 代理。下面的解决方案以电信和联通两条链路为例来描述。
2 DNS七层代理方案 四层代理只是在连接层面对DNS请求做了负载分发,但现实情况中,用户的网络 复杂度可能比较复杂,这个时候,简单的四层负载无法完全满足需求,或者解决 方案四层代理方案解决起来并不完美,例如如下两种情况: 1) 客户部署有海外链路,要求能够翻墙访问被国内封禁的域名。国内禁止访问某 个国外网站,一般有两种方式: • IP封禁,国内运营商网络禁止访问被封禁的目标网站地址。 • DNS劫持(污染),用户查询封禁的国外域名时,国内的LDNS返回一个错误 的地址。 2) 某个集团型客户的内网自建DNS跟办公网络不在同一区域,各自都有自己的网 络出口,内部用户访问集团自己的域名发给内网DNS解析,访问Internet域名发给 运营商DNS解析。 针对以上两种情况,采用七层DNS代理的方式可以完美的解决用户需求。 A10的七层DNS代理方式同样支持显示代理和透明代理两种方式,都可以解决上 述的两种情况。下面用DNS七层显示代理来描述第一种需求的实现,用DNS七层 透明代理来描述第二种需求的实现。
• 内网终端指向某一运营商的LDNS;
• 内网终端指向企业DNS,企业DNS设定转发器,加入几条链路的运营商 LDNS地址。 以上两种情况都将导致不同链路的带宽占用出现较大的差别。
问题分析
1) 内网终端指向某运营商的LDNS问题: 例如指向电信的LDNS,由于部署了全局负载均衡的应用的 智能DNS牵引作用,将引导用户访问这些应用的时候,都 走电信链路,导致电信链路占用过大,而其他链路空闲。
链路负载均衡DNS 四层及七层代理解决方案

深信服智能DNS全局负载均衡解决方案

深信服智能DNS全局负载均衡解决方案

深信服智能DNS全局负载均衡解决⽅案智能DNS全局负载均衡解决⽅案——深信服AD系列应⽤交付产品背景介绍在数据⼤集中的趋势下,多数组织机构都建⽴了统⼀运维的数据中⼼。

考虑到单⼀数据中⼼在遭遇到不抗拒的因素(如⽕灾、断电、地震)时,业务系统就很有可能⽴即瘫痪,继⽽造成重⼤损失,因此很多具有前瞻性的组织机构都在建设多数据中⼼以实现容灾。

那么如何充分利⽤多个数据中⼼的资源才能避免资源浪费?如何在⼀个数据出现故障时,将⽤户引导⾄正常的数据中⼼?在多个数据中⼼都健康的情况下如何为⽤户选择最佳的数据中⼼?问题分析随着组织的规模扩⼤,⽤户群体和分⽀机构分布全国乃⾄全球,这⼀过程中组织对信息化应⽤系统的依赖性越来越强。

对于企事业单位⽽⾔,要实现业务完整、快速的交付,关键在于如何在⽤户和应⽤之间构建的⾼可⽤性的访问途径。

跨运营商访问延迟-由于运营商之间的互连互通⼀直存在着瓶颈问题,企业在兴建应⽤服务器时,若只采⽤单⼀运营商的链路来发布业务应⽤,势必会造成其他运营商的⽤户接⼊访问⾮常缓慢。

在互联⽹链路的稳定性⽇益重要的今天,通过部署多条运营商链路,有助于保证应⽤服务的可⽤性和可靠性。

多数据中⼼容灾-考虑到单数据中⼼伴随的业务中断风险,以及⽤户跨地域、跨运营商访问的速度问题,越来越多组织选择部署同城/异地多数据中⼼。

借助多数据中⼼之间的冗余和就近接⼊机制,以保障关键业务系统的快速、持续、稳定的运⾏。

深信服解决⽅案智能DNS全局负载均衡解决⽅案,旨在通过同步多台深信服AD系列应⽤交付设备,以唯⼀域名的⽅式将多个数据中⼼对外发布出去,并根据灵活的负载策略为访问⽤户选择最佳的数据中⼼⼊⼝。

⽤户就近访问④⽀持静态和动态两种就近性判断⽅法,保障⽤户在访问资源时被引导⾄最合适的数据中⼼④通过对⽤户到各站点之间的距离、延时、以及当前数据中⼼的负荷等众多因素进⾏分析判断④内置实时更新的全球IP地址库,进⼀步提⾼⽤户请求就近分配的准确性,避免遭遇跨运营商访问站点健康检查④对所有数据中⼼发布的虚拟服务进⾏监控,全⾯检查虚拟服务在IP、TCP、UDP、应⽤和内容等所有协议层上的⼯作状态④实时监控各个数据中⼼的运⾏状况,及时发现故障站点,并相应地将后续的⽤户访问请求都调度到其他的健康的数据中⼼⼊站流量管理④⽀持轮询、加权轮询、⾸个可⽤、哈希、加权最⼩连接、加权最少流量、动态就近性、静态就近性等多种负载均衡算法,为⽤户访问提供灵活的⼊站链路调度机制④⼀旦某条链路中断仍可通过其它链路提供访问接⼊,实现数据中⼼的多条出⼝链路冗余⽅案价值④合理地调度来⾃不同⽤户的⼊站访问,提升对外发布应⽤系统的稳定性和⽤户访问体验④多个数据中⼼之间形成站点冗余,保障业务的⾼可⽤性,并提升各站点的资源利⽤率④充分利⽤多条运营商链路带来的可靠性保障,提升⽤户访问的稳定性和持续性。

多链路负载均衡解决方案

多链路负载均衡解决方案

多链路负载均衡解决方案一、引言多链路负载均衡是一种网络技术,旨在提高网络性能和可靠性。

它通过将流量分散到多个链路上,实现负载均衡,从而避免单一链路的过载和故障。

本文将介绍多链路负载均衡解决方案的基本原理、优势以及实施步骤。

二、基本原理多链路负载均衡解决方案基于以下原理实现:1. 负载均衡算法:多链路负载均衡系统会使用一种负载均衡算法,根据不同的策略将流量分发到不同的链路上。

常见的负载均衡算法包括轮询、加权轮询、最小连接数等。

2. 健康检查:多链路负载均衡系统会定期对链路进行健康检查,以确保链路的可用性。

如果某个链路不可用,系统会自动将流量转移到其他可用链路上。

3. 会话保持:为了保持用户的会话一致性,多链路负载均衡系统可能会使用会话保持技术,将同一用户的请求始终转发到同一链路上。

三、优势多链路负载均衡解决方案具有以下优势:1. 提高网络性能:通过将流量分散到多个链路上,多链路负载均衡可以有效减轻单一链路的压力,提高网络的吞吐量和响应速度。

2. 增强可靠性:多链路负载均衡可以在某个链路故障时自动将流量转移到其他可用链路上,提高系统的可靠性和容错能力。

3. 弹性扩展:通过增加新的链路,多链路负载均衡可以实现系统的弹性扩展,满足不断增长的流量需求。

四、实施步骤以下是实施多链路负载均衡解决方案的基本步骤:1. 网络规划:根据实际需求,确定需要使用多链路负载均衡的网络区域和链路数量。

同时,需要考虑链路的带宽、延迟和可靠性等因素。

2. 设备选型:选择适合的多链路负载均衡设备,根据实际需求考虑设备的性能、可靠性和扩展性等因素。

3. 配置网络设备:根据设备厂商提供的文档,配置多链路负载均衡设备。

包括设置负载均衡算法、健康检查和会话保持等参数。

4. 测试与优化:在实际环境中进行测试,验证多链路负载均衡解决方案的性能和可靠性。

根据测试结果进行必要的优化和调整。

5. 监控与维护:建立监控系统,实时监测多链路负载均衡设备和链路的状态。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

冰川网络出口链路负载均衡系统解决方案郑州冰川网络科技有限公司目录1 需求分析 (3)1.1 单一链路导致单点故障和访问迟缓 (3)1.2 传统解决方案无法完全发挥多链路优势 (4)1.3 高校出口面临的问题: (5)2 冰川网络多链路负载均衡解决方案 (5)2.1 链路优选方案 (6)2.2 链路健康检测 (7)2.3 流入(Inbound)流量处理 (8)2.4 流出(OutBount)流量处理 (9)2.5 基于ASIC芯片的NA T及路由技术 (9)3 冰川独特优势 (9)3.1 基于ASIC转发技术和传统CPU的灵活性完美结合 (9)3.2 基于协议的链路负载技术 (9)3.3 多点探测技术(Multi-Detection Technology) (10)3.4 人性化的配置界面 (10)4 设备管理 (10)5 典型网络部署方案 (12)6 总结 (14)1 需求分析目前很多企业为了提高信息发布的性能和可靠性,向多个电信运营商同时租用互联网线路,所以拥有两条或两条以上的互联网连接链路,这些用户希望分别通过多条链路使用网络平台和资源,但是这样的网络出口建设形式,暴露出以下问题,并亟待解决。

1.1 单一链路导致单点故障和访问迟缓用户的网络结构通常如下:单一链路实现内部网络和Internet之间的连接。

而在Internet接入的稳定性对于一个用户来说日见重要的今天,一个ISP显然无法保证它提供的Internet链路的持续可用性,从而可能导致用户Internet接入的中断,带来无法预计的损失。

而且由于历史原因,不同ISP的互连互通一直存在着很大的问题,在南方电信建立的应用服务器,如果是南方电信用户访问正常,Ping的延时只有几十甚至十几毫秒,对用户的正常访问几乎不会造成影响;但如果是北方网通的远程用户访问,Ping的延时只有几百甚至上千毫秒,访问应用时则会出现没有响应设置无法访问的问题。

如果用户采用单条接入链路,无论是采用电信(或网通),势必会造成相应的网通(或电信)用户访问非常慢。

因此,采用多条链路已成为用户实现Internet接入的稳定性的必然选择。

1.2 传统解决方案无法完全发挥多链路优势下图是一个多链路接入的典型拓扑,在图中内部网络到Internet有2条接入链路,其中一条通过ISP1进行链接,而另一条则通过ISP2链接。

传统多归路方案:每个ISP为内网分配一个不同的IP地址网段。

因而,对内网来说2个IP网段同时生效。

存在问题:地址的静态分配给寻址带来了很大的复杂性。

除了复杂性之外,传统的多链路网络也具有一些人们尚未完全认识的不足: 网络有多个链路与Internet相接,即使用最复杂的协议,例如BGP4,真正意义上的流量负载均衡还是做不到。

路由协议不会知道每一个链路当前的流量负载和活动会话。

此时的任何负载均衡都是很不精确的,最多只能叫做“链路共享”。

●对外访问,有的链路会比另外的链路容易达到。

虽然路由协议知道一些就近性和可达性,但是他们不可能结合诸如路由器的HOP数和到目的网络延时及链路的负载状况等多变的因素,做出精确的路由选择。

●对内流量(比如, Internet用户想访问有多条链路接入的网上的一台服务器)。

有的链路会比另外的链路更好地对外提供服务。

没一种路由机制能结合DNS,就近性,路由器负载,做出判断哪一条链路可以对外部用户来提供最优的服务。

传统的多链路接入依靠复杂的设计,解决了一些接入链路存在单点故障的问题。

但是,它远远没有把多链路接入的巨大优势发挥出来。

1.3 高校出口面临的问题:和大多数网络一样,高校的网络也存在了上述的问题,总结如下:1 出口链路流量不均衡。

采用传统策略路由的方法,如果选择DNS走教育网,则会引起晚上高峰期教育网链路网页打开速度奇慢无比。

而如果选择DNS走联通链路,则会导致联通链路满载。

而其他链路相对较为闲余。

贵校移动和教育网的链路分别是1G和300M,但这两条链路虽然带宽充裕,但基于传统路由方式的话,其带宽无法利用起来。

2 出口链路无法实现链路冗余。

当某条出口链路中断时,会影响到访问此区域的网站。

特别是教育网线路如果出现中断,会引起整个网络瘫痪。

(因为主DNS是基于教育网)3 当出口链路中断时,会引起外部用户无法访问学校网站。

4 外部用户访问学校网站时,只能走教育网,无法充分利用多ISP出口链路的优势。

2 冰川网络多链路负载均衡解决方案作为应用业务设备供应商的后起之秀,冰川网络凭借其强大的技术优势,成为应用优化领域的一匹黑马。

冰川网络多链路负载均衡解决方案就是在广域网出口的位置。

放置一台冰川链路负载均衡设备。

所有的地址转换处理和Internet链路选址、优化全部由冰川网络多链路负载均衡设备来完成。

针对各种用户的典型需求,冰川网络多链路负载均衡在以下几个环节上提供了先进的功能和完善的解决方案:●最佳链路选择;●基于“MDT”技术的链路健康检测;●智能地址翻译;●ASIC加速模块(可选);●流量(P2P)控制和管理(可选);方案拓扑图典型的冰川网络多链路负载均衡解决方案架构如下图所示:2.1 链路优选方案冰川网络多链路负载均衡能够同时实现双向(Inbound和Outbound)流量在多条两路上的负载均衡的。

●链路健康状况检查:出口链路负载均衡设备采用"MDT(Multi-DetectionTechnology)方式判断链路的健康状况,可同时对多条ISP的多个探测点进行链路检测。

●Inbound流量处理方面主要利用了DNS和NAT技术;●Outbound流量处理主要利用了NAT技术。

●链路的选择时,基于TCP/UDP的"SESSION流"技术:即协议、源IP、目的IP、源端口、目的端口五元素称之为一个“SESSION”,也就是一个连接数。

出入流量均只针对新建的SESSION,对于已经建立起连接的SESSION,会保持原有的链路不改变。

如图:2.2 链路健康检测冰川网络多链路负载均衡会通过多种方式检测两条链路的健康状况,一旦发现其中一条链路故障,会立即将所有用户流量定向至其它可用链路,从而实现Internet连接的高可用性。

主要的方法有:●MDT方式的健康检查为了确保ISP链路的畅通,冰川网络多链路负载均衡将采用Ping的方法,可检查多个目的地址是否畅通,从而来判断ISP链路是否畅通。

还可以基于自定义源地址的办法来进行检测。

注:该方法要求ISP的链路对ICMP开放。

●高级健康检查针对所有的网络环境(包括禁止ICMP的ISP),冰川网络多链路负载均衡提供了丰富的4~7层检查方式,并可以通过多种检查结果的“与”和“或”运算结果,最终准确判断链路的健康状况。

例如:通过CNC的路径,同时检查和的80端口,并将检查结果做“或”运算,只要一个检查通过即可判断CNC链路正常。

避免了某网站故障导致链路状态误判的可能性。

2.3 流入(Inbound)流量处理冰川网络多链路负载均衡需要智能DNS配合将域名的解析功能导向到多链路负载均衡,由冰川网络多链路负载均衡来进行路由。

这样当远程通过域名访问网站时,逐步通过远程用户的本地DNS服务器、根DNS服务器,最终由冰川智能DNS系统来进行域名的解析。

此时就会通过静态列表或者动态判断算法,选择最优的线路,然后将域名解析成相应线路的IP地址。

例如:当某个网通的远程用户访问网站时,首先向他当地的DNS服务器发起域名解析的请求,再通过他接入运营商的根DNS服务器,最终总归会向冰川智能DNS系统请求DNS解析,此时冰川智能DNS系统就会通过静态列表或者动态判断算法,选择最优的线路(网通),然后将域名解析成网通线路的IP地址(218.x.x.1)。

这样远程的网通用户就会使用网通的目标IP地址,通过网通的线路进行访问,实现了访问时链路方面的负载均衡优化。

2.4 流出(OutBount)流量处理针对向外的流量,链路负载均衡设备会动态的根据各ISP链路的繁忙及管理员定义的策略来进行路由和NAT。

2.5 基于ASIC芯片的NAT及路由技术在冰川Glacier 5188及其他模块话的产品上,可选支持基于ASIC芯片的多端口模块(可选2光2电模块,4光4电模块,8光模块等),配合GFOS操作系统,ASIC 模块与硬件共享内存,能自行处理NAT和路由。

整个过程无需硬件处理器的参与。

大大提升了产品的性能。

能做到10G流量64字节小包线速NAT转发。

此技术目前其他链路负载均衡产品均无法达到此性能。

3 冰川独特优势3.1 基于ASIC转发技术和传统CPU的灵活性完美结合传统的链路负载均衡系统大部分基于通用处理器技术,当作为出口链路负载并且做NAT、流量特别大的时候,会导致CPU利用率居高不下,甚至当机。

冰川出口链路负载均衡采用了通用处理器+ASIC加速模块的方式来解决这个问题。

此种技术为当前最前瞻的技术:通用处理器负责SESSION第一个报文的处理,包括匹配ACL、路由、NAT等。

并且把该报文的处理结果在内存中进行记忆。

对于后续的数据包。

ASIC加速模块根据内存中的记忆,直接进行处理。

不需要经过通用处理器。

大大提升了产品的性能。

3.2 基于协议的链路负载技术所有的用户和运营商都不得不面临一个相同问题:非关键业务流量占用的大量的可用带宽,其中P2P流量,如BT下载,更是如此。

不但造成了网络拥塞,还可能影响到关键的业务和应用。

冰川网络多链路负载均衡上可以集成基于策略和特征的带宽管理功能,识别各种业务流量,特别是能够识别多种P2P流量。

可以按照用户的具体需求,分配带宽资源和进行链路负载。

在保证关键业务的同时,让用户充分享受Internet 网络的丰富资源。

通过带宽管理以及实现各个链路的最大容量,可以避免带宽消耗的骤然剧增。

因为只有可用的带宽时,非关键应用才能占用它要求的带宽,这样既阻止了带宽消耗量的剧增,又进一步降低了连接成本。

3.3 多点探测技术(Multi-Detection Technology)针对ISP线路的健康检测,冰川采用了"MDT"技术来进行探测,俗话说:“再一再二不会再三”,多个探测点同时故障的几率非常低,采用这种技术进行探测,保证了链路健康的综合准确率。

3.4 人性化的配置界面产品的配置,从用户的角度而已,做到了“所想即所配”,现实中对网络的规划,管理员是怎么想的,就按照思路来配,不需要管理员深入理解技术原理。

4 设备管理所有冰川网络应用交换机的设备管理方式相同。

针对冰川网络多链路负载均衡,网络管理人员可利用如下方式对其进行管理:⏹SNMP网络管理系统⏹标准的网络浏览器⏹使用Telnet 命令⏹CLI 命令行控制方式(需要与冰川网络多链路负载均衡通过控制台接口直接连接)⏹SSH管理手段如图所示:5 典型网络部署方案冰川的解决方案是“出口链路负载+智能DNS系统"综合解决方案。

相关文档
最新文档