F5负载均衡基本原理
F5服务器负载均衡基本原理

F5服务器负载均衡基本原理F5服务器负载均衡(Server Load Balancing,SLB)是一种通过将网络流量分配到多个服务器上,以实现网络服务的高可用和高性能的技术。
它基于不同的算法,将传入的网络请求按照一定的规则分发到多台服务器上,从而确保服务器的负载均衡和网络服务的可用性。
1.请求分发:当用户发送请求到负载均衡器时,负载均衡器根据一定的算法(如轮询、加权轮询、最少连接数)选择一台可用的服务器去处理该请求。
负载均衡器在每次请求中选择不同的服务器,从而实现请求的均衡分发。
2.健康检测:负载均衡器会定期检测服务器的健康状态,通过发送心跳包或者检测服务器的端口是否可访问来判断服务器的可用性。
如果检测到台服务器不可用,负载均衡器会将其从可用服务器列表中移除,不再将请求分发给该服务器。
3. 会话保持: 在一些场景下,用户发送的请求需要保持一致的会话状态。
负载均衡器可以通过一些手段(如Cookie、URL重写)将用户的请求转发给同一台服务器,从而保持会话的一致性,提高用户体验。
4.动态负载调整:如果负载均衡器检测到一些服务器的负载过高或者过低,可以根据配置的策略对其进行动态调整。
负载均衡器可以将请求重新分配到负载较低的服务器上,或者增加负载较高服务器的权重,从而实现负载的平衡。
5.故障恢复:如果一些服务器出现故障,负载均衡器可以自动将请求分发给其他正常工作的服务器,从而实现故障的快速恢复。
当该服务器恢复正常后,负载均衡器可以重新将请求分发给该服务器,提高整个系统的可用性和容错性。
6.安全保护:负载均衡器可以在传输层或应用层对请求进行检查和过滤,提供防火墙和DDoS防护等安全功能。
负载均衡器可以通过访问控制策略、SSL加密和反向代理等手段,保护和隔离后端服务器。
总结起来,F5服务器负载均衡的基本原理是通过请求分发、健康检测、会话保持、动态负载调整、故障恢复和安全保护等技术手段,将传入的网络请求均衡地分发到多台服务器上,从而确保服务器的负载均衡和网络服务的可用性。
F5负载均衡原理

F5负载均衡原理F5负载均衡(Load Balancing)是指将大量的请求分发到多个服务器上,实现请求的分担和资源的优化利用。
F5负载均衡器能够根据配置的策略和算法,将网络请求均匀地分配给后端的多个服务器,使得每个后端服务器的负载得以平衡,提高整个系统的可用性和性能。
接下来,我将详细介绍F5负载均衡的原理。
传输层负载均衡主要是通过分发网络传输层的请求来实现负载均衡。
在这个层面上,F5负载均衡器通过使用虚拟IP地址(即VIP)来代替后端服务器的真实IP地址,当客户端发送请求时,请求会先到达负载均衡器。
然后,负载均衡器会根据事先设置的负载均衡策略和算法,如轮询、加权轮询、最小连接数等,将请求传递给后端的服务器群。
负载均衡器还会记录每个服务器的负载情况,动态地调整传输路径,以达到负载均衡的效果。
应用层负载均衡则更进一步,它不仅能够通过分发传输层请求,还能够解析上层应用协议,如HTTP、HTTPS等,根据应用层的需求对请求进行处理和分发。
这样,F5负载均衡器在实现负载均衡的同时,还能够提供一些高级功能,如SSL处理、URL重写、会话保持等。
应用层负载均衡通过深度分析网络流量,可以更好地理解和控制应用层的协议,从而实现更细粒度的负载均衡策略。
F5负载均衡器的核心组件是Traffic Management Operating System (TMOS)操作系统。
TMOS是一种高度可扩展和灵活的操作系统,它可以对网络流量进行智能管理和控制,实现负载均衡、安全和优化等功能。
TMOS通过分层结构来实现不同层次的负载均衡和流量管理。
在F5负载均衡器的架构中,负载均衡设备通常都是成对部署的,以实现高可用性和冗余。
两台设备之间通过VRRP(Virtual Router Redundancy Protocol)协议实现主备功能,当主设备失效时,备设备会接管主设备的工作,确保服务的连续性。
除了负载均衡,F5负载均衡器还提供了一系列的高级功能。
F5负载均衡设备组网架构概述

F5负载均衡设备组网架构概述1. 主设备和备份设备:F5负载均衡设备通常是以主备架构部署的,主设备负责实际的流量分发工作,而备份设备则在主设备发生故障时接管其工作,确保网络的稳定运行。
2. 负载均衡器和服务器间的连接:F5负载均衡设备与服务器之间会建立连接,负载均衡器可以监控服务器的运行状态,并根据负载情况自动调整流量分发策略,确保网络中的每台服务器都能得到合理的负载。
3. 负载均衡器间的通信:在多台F5负载均衡设备组成的集群中,各个负载均衡器之间需要进行通信,以便协调负载分发策略和同步配置信息,实现集中管理和控制。
4. 外部网络和内部网络的连接:F5负载均衡设备需要通过外部网络和内部网络进行通信,通过外部网络接收来自客户端的请求,并通过内部网络将流量分发给后端服务器,实现整个负载均衡流程。
总之,F5负载均衡设备的组网架构主要包括主备设备、服务器连接、负载均衡器间的通信和外部内部网络的连接等组成部分,通过合理的架构设计和配置,可以实现高效的负载均衡和流量分发,提高网络性能和可靠性。
由于不明确您所关注的方面,以下是一个关于F5负载均衡设备组网架构更详尽的概述。
5. 安全策略和防护:F5负载均衡设备在组网架构中也需要考虑安全因素。
它可以实施安全策略,如访问控制、防火墙和 SSL 加速等功能,保护整个网络免受恶意流量和攻击的侵扰。
此外,F5负载均衡器还可以提供 DDoS 防护,有效应对大规模的网络攻击,确保网络的稳定性和安全性。
6. 高可用性和容错设计:F5负载均衡设备在组网架构中需要考虑高可用性和容错设计,以确保网络的稳定运行。
采用双机热备或集群部署等方式,当其中一个设备发生故障时,另一个设备能够接管工作,保证整个系统的连续性。
同时也可以采用多地域部署的方式,通过全局负载均衡技术实现多地域的流量分发和灾备切换,提高整体系统的可用性和容错能力。
7. 集中管理和监控:F5负载均衡设备组网架构中还需要考虑集中管理和监控。
F5负载均衡基本原理

F5负载均衡基本原理1.健康检查:负载均衡设备会定期对所有服务器进行健康检查,以确保它们能够正常工作。
这些健康检查会检查服务器的可用性、响应时间和负载情况等。
如果一些服务器无法正常工作,负载均衡设备会从服务器池中删除该服务器,并将流量路由到其他可用的服务器。
2.转发算法:负载均衡设备使用不同的转发算法来决定将流量发送到哪个服务器。
常见的转发算法有轮询、加权轮询、最少连接和源IP散列等。
轮询算法是最简单的算法,它按照服务器列表的顺序将每个请求发送给下一个服务器。
加权轮询算法根据服务器的性能配置权重,将请求发送给性能更好的服务器。
最少连接算法将请求发送给当前连接数最少的服务器,以实现动态负载均衡。
源IP散列算法根据请求的源IP地址将请求分配给服务器,以确保具有相同源IP地址的请求始终被发送到同一个服务器。
3. 会话保持:一些应用程序要求客户端在一定时间内保持与同一服务器的连接。
负载均衡设备使用会话保持技术来将特定客户端的请求路由到相同的服务器。
常见的会话保持技术有基于Cookie的会话保持和IP散列的会话保持。
基于Cookie的会话保持通过在客户端的浏览器中设置Cookie来标识会话,以便将请求发送到同一服务器。
IP散列的会话保持使用客户端的IP地址来标识会话。
4.SSL卸载:负载均衡设备可以用于卸载传入和传出流量中的SSL加密。
这样可以减轻服务器的负担,提高性能。
负载均衡设备将SSL流量解密,并将未加密的流量转发给服务器处理。
然后再将服务器返回的响应重新加密,并将加密的响应发送回客户端。
5.缓存:负载均衡设备可以在其内部维护一个缓存,用于存储经常访问的静态资源,以提高响应速度和降低服务器负载。
当请求到达负载均衡设备时,它会首先检查缓存中是否存在所请求的资源。
如果存在,它会直接将缓存中的资源返回给客户端,而不需要访问服务器。
总的来说,F5负载均衡技术通过健康检查、转发算法、会话保持、SSL卸载和缓存等多种技术手段实现对流量的分发和管理,以提高应用程序的性能、可伸缩性和可用性。
F5服务器负载均衡解决方案

F5服务器负载均衡解决方案F5服务器负载均衡解决方案是一种基于F5硬件和软件的系统架构,旨在提高服务器性能和可靠性。
通过将流量分配到多个服务器上,负载均衡解决方案可以确保每个服务器都处于平衡的工作状态,从而最大限度地提高系统的吞吐量和可用性。
F5负载均衡解决方案主要包括以下几个方面的内容:1.服务器冗余和故障恢复:一个F5负载均衡解决方案通常由多个服务器组成,这些服务器可以部署在不同的地理位置或数据中心。
通过将流量分发到多个服务器上,当其中一个服务器发生故障时,负载均衡器可以自动将流量重定向到其他正常工作的服务器上,从而实现服务器冗余和故障恢复。
2.流量分配算法:负载均衡器使用一系列流量分配算法将流量分发到后端服务器上。
常见的算法包括轮询、加权轮询、最少连接和源IP散列等。
轮询算法将流量依次分发到每个服务器上,而加权轮询算法则根据服务器的性能指标或负荷情况分配不同的权重。
最少连接算法将流量分发到连接数最少的服务器上,而源IP散列算法则根据源IP地址将流量映射到特定的服务器上。
通过选择合适的分配算法,可以实现流量的均衡分发,从而避免服务器的过载或过度闲置。
3. 状态监测和健康检查:负载均衡器可以定期检查后端服务器的状态,以确保它们处于正常工作状态。
这些健康检查可以通过Ping、HTTP 请求、TCP端口检查等不同的方式进行。
如果发现一些服务器不可用或出现性能问题,负载均衡器可以自动将其从服务器池中移除,避免将流量分发到它上面。
4. SSL加速和安全性:F5负载均衡器还可以提供SSL加速功能,通过在负载均衡器上进行SSL终结,减轻后端服务器的SSL负载,提高系统的性能和吞吐量。
此外,负载均衡器还可以提供安全防护功能,例如反向代理、DDoS防护和Web应用防火墙等,在保护后端服务器免受恶意攻击的同时,确保系统的稳定和安全。
5.智能路由和全局负载均衡:如果服务器部署在不同的地理位置或数据中心,F5负载均衡器可以根据用户请求的位置或其他条件,智能地将请求分发到最近或最合适的服务器上,从而减少延迟和提高用户体验。
f5工作原理

f5工作原理
F5工作原理主要是通过负载均衡和会话保持来实现。
负载均衡是指将网络流量均匀地分发到不同的服务器上,以避免单个服务器过载而导致服务质量下降。
F5会根据服务器的
负载情况、性能和可用性等因素,动态地将流量分配到最适合的服务器上,以实现负载均衡。
会话保持是指当用户在网站上进行操作时,F5会将用户的请
求和响应信息绑定到特定的服务器上,以保持用户的会话状态。
这样用户就可以与同一台服务器保持一致的会话,无论用户的请求如何分发,都能保证用户数据的一致性和完整性。
F5还可以通过SSL加速、内容压缩和请求缓存等技术来提高
网站的性能。
SSL加速可以提供更快的加密和解密速度,从而加快HTTPS请求的响应时间。
内容压缩可以将传输的数据进
行压缩,减少网络流量,提高响应速度。
请求缓存可以将常用请求的响应结果缓存起来,当下次有相同的请求时,可以直接返回缓存结果,减少服务器的负载和响应时间。
总之,F5通过负载均衡、会话保持和其他技术手段来提高网
站的性能和可用性,从而提供更好的用户体验。
F5基本原理介绍

F5基本原理介绍1. 负载均衡的基本单位目前负载均衡设备的基本处理单位是TCP连接,也就是说当一个TCP连接建立后,在该连接中的所有客户端请求和服务器响应信息都通过这一个TCP连接进行。
只有客户端发起新的连接的时候,才会根据负载均衡算法重新计算,才可能分发到其他服务器上。
2. 基本工作模式F5支持全代理模式,同时也可以工作在四层转发模式。
全代理模式就是VS配置成standard类型,此模式下客户端和F5建立一个连接,客户端将请求发送给F5,F5再和服务器建立连接,并将请求发送给服务器,服务器返回信息后,F5再将返的回信息送给客户端。
在此模式下F5可以查看请求和响应的所有信息,可以根据所有信息进行分发和处理。
四层转发模式就是VS配置成Performance L4类型,此模式下F5只做四层转发,也就是F5只处理四层以下的信息,即端口和IP信息,具体业务数据不做任何处理。
客户端发送给F5的数据包,F5只根据需要将IP和端口处理之后就直接发送给服务器,响应信息也类似处理。
在此模式下,F5只能查看四层一下信息,不处理业务信息,好处是处理过程简单、速度快。
缺点是无法对四层以上的协议数据进行精确处理。
3. 负载均衡算法F5支持的负载均衡算法分类两大类:静态算法和动态算法,总共将近20种,这里只分析常用的三种算法:轮询、比率、最小连接数。
3.1 轮询轮询算法就是按照后台服务器轮流分发,不考虑服务器承受能力和压力情况。
该算法简单、方便,主要适用于特别大量的访问,同时要求服务器的处理性能基本一致,每个请求产生的压力也相当。
实际中该算法使用不多。
3.2 比例比率算法是首先对每台服务器设定一定的比例,该算法根据该比例进行分发,该算法主要用于已经明确后台服务器的处理能力不同,并能够知道处理能力的大概比例关系的情况;还有一种情况下就是,当需要对后台服务器进行迁移的时候,可以使用该算法,通过调整每台服务器的比例关系,将流量逐渐迁移。
F5链路负载均衡解决方案LC

F5链路负载均衡解决方案LCF5是一家全球领先的应用交付与安全解决方案提供商,提供了多种链路负载均衡解决方案。
其中,F5的链路负载均衡解决方案LC以其高可用性、灵活性和可扩展性而备受青睐。
本文将详细介绍F5链路负载均衡解决方案LC的特点、工作原理、部署方式和优势。
1.高可用性:F5LC采用活动-备份的部署方式,当主链路故障时,备份链路会立即接管,以保证业务的连续性和可用性。
2.负载均衡:F5LC可以根据不同的负载均衡算法,将流量均匀地分配到多个链路上,避免其中一条链路被过载,提高整体性能。
3.智能流量管理:F5LC可以根据网络状况、链路质量和带宽利用率等因素来智能调整流量分配,以提供最佳的用户体验。
4.安全性:F5LC提供了多种安全特性,如DDoS防护、SSL加密解密、WAF等,以保护网络和应用不受攻击。
5.可扩展性:F5LC支持水平扩展,可以随着业务的增长而添加更多的链路,并自动进行流量分配和故障切换。
F5LC通过在链路前端部署负载均衡设备,将流量均匀地分配到多个链路上,以提高系统的吞吐量和响应速度。
其工作原理如下:1.客户端向F5负载均衡设备发送请求。
2.F5负载均衡设备根据配置的负载均衡算法,选择一条健康的链路,并将请求转发给该链路上的服务器。
3.服务器接收到请求后,处理并返回响应给F5负载均衡设备。
4.F5负载均衡设备将响应返回给客户端。
F5LC可以以硬件形式部署在数据中心的网络架构中,也可以以虚拟化形式部署在云环境中。
具体的部署方式包括以下几种:1.单一数据中心:将负载均衡设备直接部署在数据中心内,用于分发流量到多个服务器。
2.多数据中心:在多个数据中心分别部署负载均衡设备,并通过跨数据中心的链路进行流量分发和故障切换。
3.云环境:将负载均衡设备以虚拟化的形式部署在云平台上,与云服务提供商的负载均衡服务相结合,提供更加可靠的负载均衡能力。
1.高性能:F5LC采用硬件加速和专用芯片技术,能够处理大量的并发请求,满足高负载的需求。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
F5 Application Management Products 服务器负载均衡原理
F5 Networks Inc
1.服务器负载平衡市场需求 (3)
2.负载平衡典型流程 (4)
2..1 通过VIP来截获合适的需要负载平衡的流量 (4)
2.2 服务器的健康监控和检查 (5)
2.3 负载均衡和应用交换功能,通过各种策略导向到合适的服务器 (6)
1.服务器负载平衡市场需求
随着Internet的普及以及电子商务、电子政务的发展,越来越多的应用系统需要面对更高的访问量和数据量。
同时,企业对在线系统的依赖也越来越高,大量的关键应用需要系统有足够的在线率及高效率。
这些要求使得单一的网络服务设备已经不能满足这些需要,由此需要引入服务器的负载平衡,实现客户端同时访问多台同时工作的服务器,一则避免服务器的单点故障,再则提高在线系统的服务处理能力。
从业界环境来说,如下的应用需求更是负载均衡发展的推动力:
•业务系统从Client-Server转向采用Browser-Server 系统结构,关键系统需要高可用性
•电子商务系统的高可用性和高可靠性需要
•IT应用系统大集中的需要(税务大集中,证券大集中,银行大集中)
•数据中心降低成本,提高效率
负载均衡技术在现有网络结构之上提供了一种廉价、有效、透明的方法,来扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。
它有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。
BIG/IP利用定义在其上面的虚拟IP地址来为用户的一个或多个应用服务器提供服务。
因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。
BIG/IP 连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG/IP根椐目标服务器之间性能和网络健康情况,选择性能最佳的服务器响应用户的请求。
下图描述了一个负载平衡发生的流程:
1. 客户发出服务请求到VIP
2. BIGIP接收到请求,将数据包中目的IP地址改为选中的后台服务器IP地址,然后将数据包发出到后台选定的服务器
3. 后台服务器收到后,将应答包按照其路由发回到BIGIP
4. BIGIP收到应答包后将其中的源地址改回成VIP的地址,发回客户端,由此就完成了一个标准的服务器负载平衡的流程。
2.负载平衡典型流程
•通过VIP来截获合适的需要负载平衡的流量
•服务器监控和健康检查,随时了解服务器群的可用性状态
•负载均衡和应用交换功能,通过各种策略导向到合适的服务器
2..1 通过VIP来截获合适的需要负载平衡的流量
在BIGIP上通过设置VIP来截获需要进行负载平衡的流量,这个VIP地址可以是一个独立的主机地址和端口的组合(例如:202.101.112.115:80)也可以是一个网络地址和端口的组合(例如:202.101.112.0:80),当流量经过BIGIP的时候,凡是命中VIP的流量都将被截获并按照规则进行负载平衡。
2.2 服务器的健康监控和检查
服务器 (Node) - Ping (ICMP)
BIGIP可以定期的通过ICMP包对后台服务器的IP地址进行检测,如果在设定的时间内能收到该地址的ICMP的回应,则认为该服务器能提供服务
服务 (Port) – Connect
BIGIP可以定期的通过TCP包对后台服务器的服务端口进行检测,如果在设定的时间内能收到该服务器端口的回应,则认为该服务器能提供服务
扩展内容查证(ECV: Extended Content Verification)—ECV
ECV是一种非常复杂的服务检查,主要用于确认应用程序能否对请求返回对应的数据。
如果一个应用对该服务检查作出响应并返回对应的数据,则BIG/IP控制器将该服务器标识为工作良好。
如果服务器不能返回相应的数据,则将该服务器标识为宕机。
宕机一旦修复,BIG/IP就会自动查证应用已能对客户请求作出正确响应并恢复向该服务器传送。
该功能使BIG/IP可以将保护延伸到后端应用如Web内容及数据库。
BIG/ip的ECV 功能允许您向Web服务器、防火墙、缓存服务器、代理服务器和其它透明设备发送查询,然后检查返回的响应。
这将有助于确认您为客户提供的内容正是其所需要的。
扩展应用查证(EAV: Extended Application Verification)
EAV是另一种服务检查,用于确认运行在某个服务器上的应用能否对客户请求作出响应。
为完成这种检查,BIG/IP控制器使用一个被称作外部服务检查者的客户程序,该程序为BIG/IP提供完全客户化的服务检查功能,但它位于BIG/IP控制器的外部。
例如,该外部服务检查者可以查证一个Internet或Intranet上的从后台数据库中取出数据并在HTML网页上显示的应用能否正常工作。
EAV是BIG/IP提供的非常独特的功能,它提供管理者将BIG/IP客户化后访问各种各样应用的能力,该功能使BIG/IP在提供标准的可用性查证之外能获得服务器、应用及内容可用性等最重要的反馈。
该功能对于电子商务和其它应用至关重要,它用于从客户的角度测试您的站点。
例如,您可以模拟客户完成交易所需的所有步骤-连接到站点、从目录中选择项目以及验证交易使用的信用卡。
一旦BIG/ip掌握了该“可用性”信息,即可利用负载平衡使资源达到最高的可用性。
BIG/ip已经为测试Internet服务的健康情况和状态,预定义的扩展应用验证(EAV),它有二种用户界面:浏览器和CLI配置。
BIG/IP预定义的应用检查:FTP、NNTP、SMTP、POP3和MSSQL。
2.3 负载均衡和应用交换功能,通过各种策略导向到合适的服务器
BIGIP是一台对流量和内容进行管理分配的设备。
它提供12种灵活的算法将数据流有效地转发到它所连接的服务器群。
而面对用户,只是一台虚拟服务器。
用户此时只须记住一台服务器,即虚拟服务器。
但他们的数据流却被BIGIP灵活地均衡到所有的服务器。
这12种算法包括:
●轮询(Round Robin):顺序循环将请求一次顺序循环地连接每个服务器。
当其中
某个服务器发生第二到第7层的故障,BIG/IP就把其从顺序循环队列中拿出,不参加下一次的轮询,直到其恢复正常。
●比率(Ratio):给每个服务器分配一个加权值为比例,根椐这个比例,把用户的
请求分配到每个服务器。
当其中某个服务器发生第二到第7层的故障,BIG/IP就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。
●优先权(Priority):给所有服务器分组,给每个组定义优先权,BIG/IP用户的
请求,分配给优先级最高的服务器组(在同一组内,采用轮询或比率算法,分配用户的请求);当最高优先级中所有服务器出现故障,BIG/IP才将请求送给次优先级的服务器组。
这种方式,实际为用户提供一种热备份的方式。
●最少的连接方式(Least Connection):传递新的连接给那些进行最少连接处理的
服务器。
当其中某个服务器发生第二到第7层的故障,BIG/IP就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。
●最快模式(Fastest):传递连接给那些响应最快的服务器。
当其中某个服务器发
生第二到第7层的故障,BIG/IP就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。
●观察模式(Observed):连接数目和响应时间以这两项的最佳平衡为依据为新的请
求选择服务器。
当其中某个服务器发生第二到第7层的故障,BIG/IP就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。
●预测模式(Predictive):BIG/IP利用收集到的服务器当前的性能指标,进行预
测分析,选择一台服务器在下一个时间片内,其性能将达到最佳的服务器相应用户的请求。
(被bigip进行检测)
●动态性能分配(Dynamic Ratio-APM):BIG/IP收集到的应用程序和应用服务器的各
项性能参数,动态调整流量分配。
●动态服务器补充(Dynamic Server Act.):当主服务器群中因故障导致数量减少时,
动态地将备份服务器补充至主服务器群。
●服务质量(QoS):按不同的优先级对数据流进行分配。
●服务类型(ToS):按不同的服务类型(在Type of Field中标识)对数据流进行分
配。
●规则模式:针对不同的数据流设置导向规则,用户可自行编辑流量分配规则,BIG/IP
利用这些规则对通过的数据流实施导向控制。