A10-链路负载均衡(LLB)解决方案-YL
多链路负载均衡解决方案

多链路负载均衡解决方案一、概述多链路负载均衡解决方案是一种网络技术,旨在通过合理分配流量和资源,提高网络性能和可靠性。
该解决方案通过将流量分发到多个链路上,实现负载均衡,从而提高系统的吞吐量和响应速度。
本文将详细介绍多链路负载均衡解决方案的原理、实施步骤以及相关技术。
二、原理多链路负载均衡解决方案基于以下原理:1. 链路选择:根据链路的性能指标(如带宽、延迟、丢包率等),选择最佳的链路进行数据传输。
2. 流量分发:将输入流量分发到多个链路上,使得每条链路上的负载相对均衡,避免单一链路过载。
3. 流量监测:实时监测链路的性能指标和负载情况,根据监测结果动态调整链路选择和流量分发策略。
三、实施步骤实施多链路负载均衡解决方案的步骤如下:1. 网络规划:根据实际需求和网络拓扑,设计合理的网络架构,包括链路配置、设备部署等。
2. 链路测量:通过网络测量工具对各个链路进行测量,获取链路的性能指标,如带宽、延迟、丢包率等。
3. 负载均衡策略设计:根据链路的性能指标和负载情况,设计合适的负载均衡策略,包括链路选择算法、流量分发算法等。
4. 配置负载均衡设备:根据负载均衡策略,配置负载均衡设备,如负载均衡器、路由器等,将其与网络中的各个链路连接起来。
5. 流量监测与调整:实时监测链路的性能指标和负载情况,根据监测结果对负载均衡策略进行调整,以达到最佳的负载均衡效果。
四、相关技术实施多链路负载均衡解决方案需要借助以下技术:1. 负载均衡器:负载均衡器是实现负载均衡的关键设备,它可以根据预设的负载均衡策略,将输入流量分发到多个链路上。
2. 链路测量工具:链路测量工具用于测量链路的性能指标,如带宽、延迟、丢包率等。
3. 链路选择算法:链路选择算法根据链路的性能指标,选择最佳的链路进行数据传输。
常用的链路选择算法有最短路径算法、加权轮询算法等。
4. 流量分发算法:流量分发算法用于将输入流量分发到多个链路上,使得每条链路上的负载相对均衡。
多链路负载均衡解决方案

多链路负载均衡解决方案引言概述:在当今互联网时代,网络流量不断增加,对网络带宽和性能的要求也越来越高。
为了提高网络的可用性和性能,多链路负载均衡解决方案应运而生。
本文将介绍多链路负载均衡的概念及其解决方案,并详细阐述其在网络中的应用。
一、多链路负载均衡的概念1.1 多链路负载均衡的定义多链路负载均衡是一种网络技术,通过将网络流量分散到多个链路上,以实现负载均衡和提高网络性能。
它可以将网络流量分发到多个链路上,避免单一链路的拥堵,提高网络的可用性和吞吐量。
1.2 多链路负载均衡的原理多链路负载均衡通过使用负载均衡算法,将网络流量分发到多个链路上。
它可以根据不同的负载均衡策略,如轮询、加权轮询、最小连接数等,将流量分发到不同的链路上,使得每个链路都能得到合理的负载,提高网络的性能和可用性。
1.3 多链路负载均衡的优势多链路负载均衡可以提供更高的带宽和更好的性能。
通过将流量分发到多个链路上,它可以充分利用网络资源,避免链路的拥堵,提高网络的吞吐量。
同时,多链路负载均衡还可以提高网络的可用性,当某个链路故障时,可以自动将流量切换到其他正常的链路上,保证网络的连通性。
二、多链路负载均衡的应用2.1 企业网络在企业网络中,多链路负载均衡可以提高网络的性能和可用性。
通过将流量分发到多个链路上,它可以充分利用企业的网络资源,提高网络的吞吐量。
同时,当某个链路故障时,多链路负载均衡可以自动将流量切换到其他正常的链路上,保证企业网络的连通性。
2.2 数据中心在数据中心中,多链路负载均衡可以提高服务器的负载均衡和性能。
通过将流量分发到多个服务器上,它可以避免单一服务器的过载,提高服务器的处理能力。
同时,多链路负载均衡还可以提供高可用性,当某个服务器故障时,可以自动将流量切换到其他正常的服务器上,保证数据中心的正常运行。
2.3 云计算在云计算环境中,多链路负载均衡可以提高云服务的性能和可用性。
通过将流量分发到多个云服务器上,它可以充分利用云计算资源,提高云服务的吞吐量。
多链路负载均衡解决方案

多链路负载均衡解决方案一、引言多链路负载均衡是一种网络技术,旨在实现网络流量的平衡分配,提高网络性能和可用性。
本文将介绍多链路负载均衡的基本原理、常见的解决方案以及其优势和应用场景。
二、多链路负载均衡的基本原理多链路负载均衡通过将流量分发到多个链路上,以平衡网络负载。
其基本原理如下:1. 选择最佳链路:根据链路的负载情况、带宽和延迟等指标,选择最佳的链路来分发流量。
2. 流量分发算法:采用不同的算法,如轮询、加权轮询、至少连接数等,将流量均匀地分发到各个链路上。
3. 健康检查:定期对链路进行健康检查,排除异常链路,确保流量的正常分发。
三、常见的多链路负载均衡解决方案1. 硬件负载均衡器:使用专用硬件设备,如F5 BIG-IP、Cisco ACE等,提供高性能的负载均衡功能。
这些设备通常具有丰富的功能和灵便的配置选项,适合于大规模和高性能的网络环境。
2. 软件负载均衡器:基于软件的解决方案,如Nginx、HAProxy等,通过在普通服务器上运行负载均衡软件来实现负载均衡功能。
这些软件具有较低的成本、易于部署和管理的优势,适合于中小规模的网络环境。
3. DNS负载均衡:通过在DNS服务器中配置多个IP地址,将流量分发到不同的服务器上。
这种解决方案简单易用,但对于长连接和会话保持等特殊需求支持较差。
4. SD-WAN:软件定义广域网技术,通过智能路由和负载均衡功能,将流量分发到不同的链路上,提供更好的网络性能和可用性。
SD-WAN具有集中管理、智能路由和安全加密等特点,适合于分布式网络环境。
四、多链路负载均衡的优势1. 提高性能:通过将流量均匀地分发到多个链路上,避免单一链路的过载,提高网络性能和响应速度。
2. 增强可用性:当某个链路发生故障时,多链路负载均衡可以自动将流量切换到其他正常的链路上,保证网络的可用性。
3. 扩展带宽:通过增加链路数量,多链路负载均衡可以扩展网络带宽,满足不断增长的流量需求。
A10-EX链路负载方案

A10 Networks链路负载均衡技术方案(版本:V1.0)目录前言 (3)用户需求描述 (3)需求分析 (3)EX解决方案的优越性 (4)设备选型 (4)方案描述 (4)出站链路负载均衡 (10)入站链路负载均衡 (10)带宽管理 (11)入侵防护 (12)产品优势 (13)EX系列产品简述 (13)应用带宽管理 (13)总量带宽控制 (14)速率限制 (14)优先级标记 (14)应用调整 (15)EX系列产品优势 (15)基于身份识别的分类图表应用报告, (16)身份识别解析 (16)EX系列产品实现身份实名 (18)EX系列产品优势 (19)可扩充和链路负载均衡的稳定网络联接 (19)链路负载均衡(LLB)技术 (19)可视化Web管理界面 (20)EX系列产品的优势 (21)防火墙负载均衡 (22)防火墙/安全负载均衡的优点 (23)EX系列产品的优势 (23)服务器负载均衡 (24)EX系列产品的优势 (25)缓存重定向加速互联网W EB内容 (26)EX系列产品的优势 (26)系统设备清单 (27)公司简介 (27)前言目前,大部分用户通过中国电信和中国网通接入互联网,其他运营商包括中国移动、中国联通、中国铁通等也在为用户提供接入服务。
由于各运营商之间的互联问题,尤其是电信与网通之间的互联问题,导致了从南方用户访问北方网站或北方用户访问南方用户访问速度较慢的问题。
其出现的根本原因为南北网络的互通互联接点拥塞,造成用户丢包、延迟较大,从而导致访问缓慢,甚至对于一些应用根本无法访问。
随着应用的逐渐增多和日益激烈的市场竞争,越来越多的用户会有提高自身资源可访问性(例如网站和其他服务)以及链路冗余度的要求,A10 Networks的链路负载均衡设备可以全面的解决上述问题。
用户需求描述客户针对互联网接入方面的需求归纳如下:1.增加一条出口线路,解决网络速度慢的问题,并提供智能的链路选择。
2.加强互联网的带宽监管。
A10负载均衡技术交流-渠道v1.2

ADC
CGN – IPv4扩展/IPv6迁移 TPS – 网络边界DDoS防御
Threat Protection System
Carrier Grade Networking
CGN
TPS
应用网络平台
高性能 可扩展性 可升级性 灵活性
ACOS平台
专有IT系统
托管IT系统
Cloud IaaS
SSL加速: 提升处理性能,增强安全 性
RAM缓存: 加快业务反应速度,创 造更多的收入
©A10
Networks, Inc.
14
TCP优化:提升业务处理性能
大幅降低业务系统管理TCP链接的额外 开销
–TCP重用/复用技术降低服务器响应、处理、维 持、关闭TCP连接的大量重复开销
业务如何受益
认证请求(携带 Thunder系统的管理 员帐户与口令)
配置变更或监控请求 (携带会话ID信息)
如果认证成功,Thunder 系统回复确认,同时返回 建立的会话ID和状态码 (200,执行成功)
定制管理方案
–与自有管理系统、应用集成
交互式的部署
–基于外部事件,应用系统可触发变更流量处理/ 分发的方式
24
应用交付的重要技术-脚本功能的流量管理
举例:利用用户浏览器的语言设置选项信息,自动显 示与其语言相对应的页面。
英语 中文 日语 西班牙语
©A10
Networks, Inc.
25
应用交付的重要技术-开放API接口的流量管理
与第三方应用集成
–报表 –集中管理 –统一部署
第三方应用 aXAPI
©A10
Networks, Inc.
26
A10负载均衡SLB测试配置 v1.0

A10负载均衡SLB测试配置 v1.0A10负载均衡SLB测试配置说明A10 Networks, Inc. 2021年9月A10 Networks �C “ The Performance/Price Leader!”A10网络负载均衡测试方案目录1. 2. 3. 4. 1. 1. 2. 3. 4. 5. 6. 2. 1. 2. 3. 3. 1. 2. 4. 1. 2. 3. 5. 1. 2.3. 4.测试背景 ................................................................ 错误!未定义书签。
测试内容 ................................................................ 错误!未定义书签。
测试组网 ........................................................................... .................... 3 产品测试 ........................................................................... .................... 3 负载均衡设备基础网络配置测试 ........................................................ 3 配置AX主机名称 ...........................................................................3 VLAN的配置及测试 (4)IP地址的配置及测试 ...................................................................... 5 默认路由的配置 ........................................................................... ... 6 动态路由的配置 ........................................................................... ... 7 端口捆绑的配置及测试 ................................................................... 7 服务器负载均衡算法测试 ................................................................. 11 RoundRobin 算法配置及验证 (11)Weight Round Robin 算法配置及验证 ..........................................14 Least-connection 算法验证 .......................................................... 17 服务器健康检查测试 ........................................................................18 默认健康检查 ........................................................................... .... 19 七层健康检查 ........................................................................... .... 27 HTTP应用模板 ........................................................................... ..... 31 重定向模板 ........................................................................... ........ 32 URL/Host Switching模板 ............................................................. 33 RAM缓存模板 ........................................................................... ... 40 会话保持测试 ........................................................................... ........ 40 基于Cookie的会话保持 ............................................................... 40 基于目的IP的会话保持 ................................................................ 40 基于源IP的会话保持 ................................................................... 40 基于SSL Session-ID的会话保持 . (40)A10网络负载均衡测试方案1. 组网拓扑文中如果未进行特殊说明,则均使用下列拓扑图:测试Cilent…… 被测试负载均衡测试Server……2. 产品测试配置本次测试中,用A10的AX负载均衡设备替代web服务器,与APP直接相连,有效提高了系统的整体性能,降低了系统复杂程度。
阿里云负载均衡配置方案
阿里云负载均衡配置方案介绍---负载均衡是一种用于在多个服务器之间分配负载的技术。
阿里云提供了负载均衡服务,可以帮助用户提高应用的可扩展性和可用性。
本文档将介绍如何配置阿里云负载均衡以实现高效的负载均衡解决方案。
配置步骤---1. 创建负载均衡实例- 登录阿里云控制台- 导航到负载均衡的控制台页面- 点击"创建负载均衡实例"- 根据需求选择地域、网络类型等参数,并设置访问控制规则- 确认配置信息并创建负载均衡实例2. 配置监听规则- 在负载均衡控制台,点击已创建的负载均衡实例- 在实例详情页面,点击"监听"标签页- 点击"添加监听"按钮- 根据实际需求配置监听协议、监听端口和后端服务器协议- 确认配置信息并保存监听规则3. 添加后端服务器- 在负载均衡控制台,点击已创建的负载均衡实例- 在实例详情页面,点击"后端服务器"标签页- 点击"添加后端服务器"按钮- 输入后端服务器的IP地址和权重- 确认配置信息并添加后端服务器4. 配置健康检查- 在负载均衡控制台,点击已创建的负载均衡实例- 在实例详情页面,点击"后端服务器"标签页- 点击"健康检查"标签页- 配置健康检查的相关参数,如检查协议、检查端口和检查路径- 确认配置信息并保存健康检查设置5. 配置会话保持- 在负载均衡控制台,点击已创建的负载均衡实例- 在实例详情页面,点击"会话保持"标签页- 配置会话保持的相关参数,如超时时间和Cookie名称- 确认配置信息并保存会话保持设置6. 配置转发策略- 在负载均衡控制台,点击已创建的负载均衡实例- 在实例详情页面,点击"转发策略"标签页- 点击"添加转发策略"按钮- 根据需要配置转发策略,如根据请求路径、源IP、会话保持等进行转发- 确认配置信息并保存转发策略7. 测试负载均衡- 根据配置的监听规则和转发策略,通过访问负载均衡的公网地址进行测试- 检查负载均衡是否正常工作,并确保请求能够正确转发到后端服务器总结---通过以上的配置步骤,您可以成功创建和配置阿里云负载均衡实例,并实现高效的负载均衡解决方案。
A10负载均衡及运维培训ppt课件
WORD<length:1-31> Name
all-partitions All partition
configurations
partition
Per-partition
configurations
|
Output modifiers
.
CLI: 撤销命令
no作为撤销命令
Thunder(config)#ip nat pool nat1 10.0.2.15 10.0.2.16 netmask /24 vThunder(config)#show ip nat pool
Cloud Instances
.
Lightning ADC
LIGHTNING CONTROLLER
CFW
DCFW Ipsec VPN
ADCaaS
Data Center, Containers & Virtualized DC
Cloud
基础理论介绍
.
ADC的访问方式
通过CLI方式
Console (RS-232 连接/ 9600, 8, N, 1) Telnet (默认关闭) SSHv2
CLI: 或者命令
管道符“|”和inc 或者sec共同使用表 示或者,使用“\”表示无空格
ACOS#show run | inc tacacs\|radius tacacs-server host 1.0.0.100 secret (encrypted_secret) port 49 timeout 12 radius-server host 1.0.0.100 secret (encrypted_secret)
配置恢复
Web界面: 系统 > 维护 > 恢复 > 系统 CLI: ACOS(config)#restore […]
A10负载均衡4.0版本配置手册
©A10 Networks, | Inc.
12
Web界面: 用户级别
Monitor
– 相当于CLI 的user模式
Config
– 相当于CLI 的config模式
Confidential
©A10 Networks, | Inc.
13
Web界面: 工作流
在Web界面里, 你可以用以下 方式进行配置
Confidential
©A10 Networks, | Inc.
19
备份其他配置
ACOS#export ?
running-config ssl-cert ssl-cert-key ssl-crl ssl-key aflex bw-list class-list axdebug debug_monitor startup-config syslog thales-secworld thales-kmdata dnssec-dnskey dnssec-ds ip-map-list Running Config SSL Cert File SSL Cert/Key File SSL Crl File SSL Key File aFleX Script Source File Black/White List File Class List File AX Debug Packet File Debug Monitor Output Startup Config Syslog file Thales security world files - in .tgz format Thales Kmdata files - in .tgz format DNSSEC DNSKEY(KSK) file for the zone DNSSEC DS file for the zone IP Map List File
A10_PPT_LLB
vSwitch running in server
vSwitch and vThunder running in server
Virtual Server
Virtual Datacenter
Datacenter
Cloud Datacenter
11
Icon: Products
3rd Party ADC
Manufacture
Finance
Government
Home
City
Hospital/Healt h
Sports/Stadiu m
10
Icon: Servers and Datacenters
Server
Cloud Server
Secure Server
Web Server
Server Under Attack
DNS请求
1
4 DNS应答
DNS应答
4 DNS应答
DNS应答
CTC-LINK CUC-LINK
Client-ctc DNS应答IP : VIP-CTC 向VIP-CTC 发起连接
5
VIP-DNS-CTC VIP-CTC
VIP-CUC
VIP-DNS-CUC
向VIP-CUC 发起连接 A10应答IP: VIP-CUC
Shopping cart
Paying System
Meter
Tower
SDN Controller
y Mgmt
Cloud Orchestration
Compute
Networking
Storage
14
User
Support Personal
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
A10 链路负载均衡解决方案1. 概述由于国内各运营商之间的互联互通一直存在很大的问题,采用运营商自身单条互联网出口,在为用户提供IDC主机托管服务和大客户专线接入服务时,会遇到用户抱怨访问速度差的问题。
同时,单条链路本身存在单点故障问题。
因此,通过在多个数据中心分别拉不同运营商的线路或者同一数据中心或公司网络出口采用多条互联网链路并使用专门的负载均衡设备智能选择最佳链路成为提高服务水平和用户满意度的一种有效方式,我们把多数据中心负载均衡和多链路负载均衡统称为全局负载均衡或者广域网负载均衡。
2. 需求描述对于全局和链路负载均衡,需要解决两种流量类型的负载均衡以及容灾问题:入向流量(Inbound Traffic):从Internet上的客户端发起,到数据中心内部的应用服务的流量。
如:Internet上用户访问企业Web网站。
对于入向流量,需要根据当前网络延时、就近性等因素,来判断哪一条链路可以对外部用户提供最佳的访问服务。
出向流量(Outbound Traffic):从内部网络发起的,对Internet上应用资源的访问。
如:内部局域网用户访问Internet上Web网站应用。
对于出向流量,需要根据当前链路的就近行、负载情况、和应用服务的重要性等选择最佳的链路。
容灾:多数据中心除了可以提高服务质量之外,另外一个重要的目的就是容灾,当一个数据中心出现故障,将所有用户访问由灾备数据中心来处理。
3. A10 LLB 负载均衡解决方案3.1. 出向流量链路负载均衡(Outbound LLB )相对于入向流量的链路负载均衡,出向流量的链路负载均衡则比较简单。
当内部用户发起对外界的访问请求时,链路负载均衡控制器根据链路选择算法选择合适的链路,并对内部用户的IP 地址进行NAT 转换。
出向负载均衡是对每个数据中心内部的机器来而言的,通过放置在每个数据中心出口位置的AX 来实现。
WebClientLLB ControllerISP_A LinkISP_B LinkInternetPrivate IP: 192.168.1.10图例 3 采用LLB的Outbound访问实例如图例3所示,内部局域网用户访问外部Web网站时,链路负载均衡控制器的处理过程如下:内部局域网用户在浏览器输入要访问网站的域名,根据DNS返回的域名解析结果,发起对外部服务器的访问请求。
LLB Controller收到用户的访问请求后,根据链路选择算法,选择一条最佳的链路发送访问请求。
并根据该链路上设置的NAT地址,对内部用户的请求进行NAT转换。
例如,LLB Controller选择ISP_A作为出向流量的处理路径,则将该客户端的内部地址192.168.1.10转换为1.1.1.1,并作为发起该请求的源地址将请求转发给Web服务器进行处理。
Internet上的Web服务器收到请求后,对其进行处理,并将结果返回给LLB Controller,LLB Controller对收到的数据包进行转换为内部地址192.168.1.10,并将返回数据包转发给内部客户端。
出向流量链路负载均衡不受外部DNS的影响,因此,在处理流程上比较简单。
通常,出向流量的链路选择算法建议对国内IP尽可能采用静态绑定,对于国外或国内未知IP采用缺省选择较快线路的方式。
3.2. 入向全局负载均衡(Inbound LLB/GSLB)首先简单介绍一下用户通过互联网络访问Web应用服务器的整个过程。
如下图所示,我们将通过客户端访问来说明客户端访问的整个过程。
InternetWeb ADNSLDNSClient(1) D N S Q u e ry(2)D N S Q u e r y (3) D N S R e p l y (4) D N S R e p ly(5)T C PC o n ne c t io n图例 1 Inbound 访问实例客户端(Client )在浏览器地址栏中输入 ,发起对该网站的访问请求。
由于客户端不知道 的IP 地址,因此,客户端向本地DNS (Local DNS, LDNS )发出域名解析请求,要求LDNS 提供 所对应的IP 地址。
LDNS 通过递归查询,从上级DNS 服务器得到 的授权DNS (Authoritative DNS, ADNS )服务器IP 地址,于是,LDNS 向ADNS 域名服务器发送域名解析请求,要求对 域名进行解析。
ADNS 将 的域名解析结果返回给LDNS 。
LDNS 将 的域名解析结果返回给客户端。
客户端获得域名所对应的IP地址,于是,客户端利用这个IP地址发送对域名的访问请求。
在多数据中心或者多链路的环境中,通过负载均衡技术控制DNS的解析结果,达到智能选择数据中心和链路的目的。
AX GSLB负载均衡技术通过静态或动态路径选择算法,选择最佳的数据中心和链路,然后将域名解析为相应数据中心和链路的IP地址,并返回给客户端。
下图为多数据中心的拓扑图:下面是单数据中心多链路负载均衡的拓扑图:多数据中心负载均衡和多链路的负载均衡在物理拓扑上看起来不同,但是在实现原理上是一样的。
我们仍然通过客户端访问的例子来说明A10 GSLB是如何通过DNS技术来进行选择的。
如下图所示,ADNS服务器和Web服务器分别接入A10的负载均衡设备,两条链路ISP_A Link和ISP_B link分别接入链路负载均衡控制器。
在ADNS上将解析为分属两个不同ISP的IP地址。
其中,1.1.1.1为ISP_A提供的IP地址,2.2.2.2为ISP_B提供的IP地址。
在负载均衡控制器上将这两个地址同时映射为内部的Web服务器地址。
此外,将内部的ADNS服务器地址映射为公网IP地址。
如果用户没有自己的ADNS,A10网络的AX系列负载均衡器也可以兼做DNS服务器。
如下图所示图例 2 采用GSLB技术的Inbound访问实例客户端访问的过程如下:客户端(Client)在浏览器地址栏中输入,发起对该网站的访问请求。
如同前面的实例一样,客户端向LDNS发出域名解析请求,要求LDNS提供所对应的IP地址。
LDNS通过递归查询,从上级DNS服务器得到的ADNS服务器IP地址,于是,LDNS向ADNS域名服务器发送域名解析请求,要求对域名进行解析。
AX收到LDNS发来的域名解析请求后,将请求转发给内部的ADNS服务器进行处理。
如果是负载均衡器AX自身作为DNS服务器,直接进入第5步。
ADNS将地址解析为两个不同ISP提供的公网IP地址,并将结果返回给LLB Controller。
AX收到ADNS的域名解析结果或者授权DNS服务器的解析请求后,根据当前所采用的选择算法(如基于IP就近性或者动态探测等)和当前链路的情况,对返回的解析结果进行处理,然后将域名解析结果返回给LDNS。
例如,如果判断从ISP_A Link访问快,则将1.1.1.1作为域名解析结果返回给LDNS;若判断从ISP_B Link访问快,则将2.2.2.2作为域名解析结果返回给LDNS。
LDNS将的域名解析结果返回给客户端。
客户端获得域名所对应的IP地址,于是,客户端利用这个IP地址发送对域名的访问请求。
A10 GSLB技术通过对DNS的解析结果进行重新处理,完成了数据中心和链路的智能选择。
一般情况下,选择算法分为静态和动态两大类。
静态的选路算法一般基于源IP地址进行选路,通过查询客户端IP地址所属的ISP,来选择最佳链路或数据中心,这种方法最直接、最高效,但需要事先将IP地址段按照所属的ISP进行分类并绑定到不同的链路上。
动态的算法则是通过动态检测的方法,分析多个链路和数据中心的负载情况、响应时间、链路优先级等状况,通过比较这些指标,返回最佳的服务IP。
由于国内运营商见互联互通不是很好,通常建议对国内IP尽可能采用静态绑定,对于国外或国内未知IP采用缺省选择较快线路的方式。
针对多数据中心情况的处理:在多数据中心做负载均衡的时候,一般每个数据中心都要放置一台AX,如果设置的是IP就近性判断,首先判断源IP属于哪个运营商,返回同运营商的服务IP为第一选择,其次在多数据中心连接了同运营商线路的情况下,那么将针对不同的源IP,在不同数据中心的AX上设置不同服务IP的优先级,对于不同的源IP,将优先返回地理位置最近的数据中心的服务IP。
如果还设置的有动态探测,那么多台AX之间会进行通信,每台AX都会探测client 的响应时间,然后把探测结果发给收到DNS请求的AX,有该台AX比较探测结果,返回响应时间最快的数据中心的相应服务IP.针对多链路负载均衡的处理:多链路负载均衡与多数据中心的处理过程是一样的,区别在于动态探测直接由同一台AX从不同的链路进行探测比较。
另外假设有多条同运营商的链路在同一台AX,不需要判断源IP对同运营商链路的就近性。
针对单台AX连接多条链路的情况,AX具有use-rcv-hop-for-resp功能,保证流量从哪条链路进来从哪条链路返回。
AX对DNS请求的处理:AX支持两种dns 请求的处理方法:DNS Server:由AX负责处理用户的DNS解析请求,将处理后的结果返回给用户,优点是不用修改用户原来DNS的注册IP,缺点是需要用户的DNS做一定的设置,将用户的请求域名转发给AX来处理。
DNS Proxy: 将用户自己的DNS Server在AX上做一个IP映射,用户DNS请求通过AX转发给用户的DNS来解析,然后AX在收到DNS的解析结果后进行智能处理,返回最优的服务IP给用户。
优点是不用修改用户DNS的配置,缺点是需要把用户DNS的注册IP 配置到AX上面,用户DNS改成别的IP。
3.3. 链路的健康检查无论是Outbound还是Inbound负载均衡,都涉及到链路的健康检查,AX支持ping,tcp,udp 以及Http等多种健康检查方法,可对每条链路对端的网关或者远端的主机等进行检查以决定链路的可用性。
链路健康检查为负载均衡第一判断条件,当某条链路出现故障,与该条链路相关的服务IP将不会返回给用户,AX也不会从故障链路转发流量。
3.4. 链路拥塞控制用户的多个运营商链路经常会存在带宽不同的情况,在真实的访问中,即使采取了链路负载均衡,也可能出现某条链路带宽占满而另外链路相对空闲的情况,A10设备支持链路带宽检测,可以对每条链路设定一个阈值,当某条链路的流量达到设定的阈值,将本应发往该链路的流量发送到其他链路,避免链路堵死导致用户不能访问。
3.5. 多数据中心容灾如果A10设备部署用户的多个数据中心,A10设备还可以实现数据中心冗灾功能。
AX支持的容灾的方式有两种,一种是多数据中心同时对外提供服务,当某个数据中心出现故障,用户访问将转发给其它数据中心,不再转发给出现故障的数据中心,另外一种是由主数据中心对外提供服务,另外的数据中心提供灾备,当主数据中心出现故障,灾备数据中心全面接管服务。