F5负载均衡原理

合集下载

F5服务器负载均衡基本原理

F5服务器负载均衡基本原理

F5服务器负载均衡基本原理F5服务器负载均衡(Server Load Balancing,SLB)是一种通过将网络流量分配到多个服务器上,以实现网络服务的高可用和高性能的技术。

它基于不同的算法,将传入的网络请求按照一定的规则分发到多台服务器上,从而确保服务器的负载均衡和网络服务的可用性。

1.请求分发:当用户发送请求到负载均衡器时,负载均衡器根据一定的算法(如轮询、加权轮询、最少连接数)选择一台可用的服务器去处理该请求。

负载均衡器在每次请求中选择不同的服务器,从而实现请求的均衡分发。

2.健康检测:负载均衡器会定期检测服务器的健康状态,通过发送心跳包或者检测服务器的端口是否可访问来判断服务器的可用性。

如果检测到台服务器不可用,负载均衡器会将其从可用服务器列表中移除,不再将请求分发给该服务器。

3. 会话保持: 在一些场景下,用户发送的请求需要保持一致的会话状态。

负载均衡器可以通过一些手段(如Cookie、URL重写)将用户的请求转发给同一台服务器,从而保持会话的一致性,提高用户体验。

4.动态负载调整:如果负载均衡器检测到一些服务器的负载过高或者过低,可以根据配置的策略对其进行动态调整。

负载均衡器可以将请求重新分配到负载较低的服务器上,或者增加负载较高服务器的权重,从而实现负载的平衡。

5.故障恢复:如果一些服务器出现故障,负载均衡器可以自动将请求分发给其他正常工作的服务器,从而实现故障的快速恢复。

当该服务器恢复正常后,负载均衡器可以重新将请求分发给该服务器,提高整个系统的可用性和容错性。

6.安全保护:负载均衡器可以在传输层或应用层对请求进行检查和过滤,提供防火墙和DDoS防护等安全功能。

负载均衡器可以通过访问控制策略、SSL加密和反向代理等手段,保护和隔离后端服务器。

总结起来,F5服务器负载均衡的基本原理是通过请求分发、健康检测、会话保持、动态负载调整、故障恢复和安全保护等技术手段,将传入的网络请求均衡地分发到多台服务器上,从而确保服务器的负载均衡和网络服务的可用性。

F5负载均衡原理

F5负载均衡原理

F5负载均衡原理F5负载均衡(Load Balancing)是指将大量的请求分发到多个服务器上,实现请求的分担和资源的优化利用。

F5负载均衡器能够根据配置的策略和算法,将网络请求均匀地分配给后端的多个服务器,使得每个后端服务器的负载得以平衡,提高整个系统的可用性和性能。

接下来,我将详细介绍F5负载均衡的原理。

传输层负载均衡主要是通过分发网络传输层的请求来实现负载均衡。

在这个层面上,F5负载均衡器通过使用虚拟IP地址(即VIP)来代替后端服务器的真实IP地址,当客户端发送请求时,请求会先到达负载均衡器。

然后,负载均衡器会根据事先设置的负载均衡策略和算法,如轮询、加权轮询、最小连接数等,将请求传递给后端的服务器群。

负载均衡器还会记录每个服务器的负载情况,动态地调整传输路径,以达到负载均衡的效果。

应用层负载均衡则更进一步,它不仅能够通过分发传输层请求,还能够解析上层应用协议,如HTTP、HTTPS等,根据应用层的需求对请求进行处理和分发。

这样,F5负载均衡器在实现负载均衡的同时,还能够提供一些高级功能,如SSL处理、URL重写、会话保持等。

应用层负载均衡通过深度分析网络流量,可以更好地理解和控制应用层的协议,从而实现更细粒度的负载均衡策略。

F5负载均衡器的核心组件是Traffic Management Operating System (TMOS)操作系统。

TMOS是一种高度可扩展和灵活的操作系统,它可以对网络流量进行智能管理和控制,实现负载均衡、安全和优化等功能。

TMOS通过分层结构来实现不同层次的负载均衡和流量管理。

在F5负载均衡器的架构中,负载均衡设备通常都是成对部署的,以实现高可用性和冗余。

两台设备之间通过VRRP(Virtual Router Redundancy Protocol)协议实现主备功能,当主设备失效时,备设备会接管主设备的工作,确保服务的连续性。

除了负载均衡,F5负载均衡器还提供了一系列的高级功能。

f5工作原理

f5工作原理

f5工作原理
F5工作原理主要是通过负载均衡和会话保持来实现。

负载均衡是指将网络流量均匀地分发到不同的服务器上,以避免单个服务器过载而导致服务质量下降。

F5会根据服务器的
负载情况、性能和可用性等因素,动态地将流量分配到最适合的服务器上,以实现负载均衡。

会话保持是指当用户在网站上进行操作时,F5会将用户的请
求和响应信息绑定到特定的服务器上,以保持用户的会话状态。

这样用户就可以与同一台服务器保持一致的会话,无论用户的请求如何分发,都能保证用户数据的一致性和完整性。

F5还可以通过SSL加速、内容压缩和请求缓存等技术来提高
网站的性能。

SSL加速可以提供更快的加密和解密速度,从而加快HTTPS请求的响应时间。

内容压缩可以将传输的数据进
行压缩,减少网络流量,提高响应速度。

请求缓存可以将常用请求的响应结果缓存起来,当下次有相同的请求时,可以直接返回缓存结果,减少服务器的负载和响应时间。

总之,F5通过负载均衡、会话保持和其他技术手段来提高网
站的性能和可用性,从而提供更好的用户体验。

f5工作原理

f5工作原理

f5工作原理F5工作原理。

F5是一种网络流量管理设备,它可以帮助企业管理其网络流量,提高网络性能和安全性。

F5的工作原理涉及到负载均衡、应用交付控制和安全防护等方面,下面我们来详细了解一下F5的工作原理。

首先,F5的负载均衡功能是其最核心的工作原理之一。

负载均衡是指将网络流量均匀地分配到多台服务器上,以提高服务器的利用率、增加网站的访问速度和提高整个网络系统的可靠性。

F5通过监控服务器的负载情况,将流量智能地分发给空闲或负载较轻的服务器,从而实现了负载均衡的功能。

其次,F5还具有应用交付控制的功能。

应用交付控制是指通过F5设备对网络流量进行优化和加速,以提高用户体验和应用性能。

F5可以通过压缩、缓存和加速等技术,对网络流量进行优化,从而减少延迟,提高网站的响应速度,提升用户体验。

此外,F5还可以提供安全防护功能。

F5设备可以对网络流量进行深度检测和分析,识别恶意流量和攻击行为,并对其进行阻断和清洗,保护企业的网络安全。

F5可以通过应用防火墙、入侵检测系统等技术,对网络流量进行实时监控和防护,确保网络的安全性和稳定性。

除了以上几点,F5还具有很多其他的工作原理,比如内容路由、全局负载均衡、SSL加速等功能。

总的来说,F5通过负载均衡、应用交付控制和安全防护等多种技术手段,实现了对网络流量的智能管理和优化,为企业提供了高性能、高可靠性和高安全性的网络服务。

综上所述,F5的工作原理涉及到负载均衡、应用交付控制和安全防护等多个方面,通过这些技术手段,F5可以帮助企业提高网络性能和安全性,实现业务的高效运行。

希望本文对F5的工作原理有所帮助,谢谢阅读!。

F5基本原理介绍

F5基本原理介绍

F5基本原理介绍1. 负载均衡的基本单位目前负载均衡设备的基本处理单位是TCP连接,也就是说当一个TCP连接建立后,在该连接中的所有客户端请求和服务器响应信息都通过这一个TCP连接进行。

只有客户端发起新的连接的时候,才会根据负载均衡算法重新计算,才可能分发到其他服务器上。

2. 基本工作模式F5支持全代理模式,同时也可以工作在四层转发模式。

全代理模式就是VS配置成standard类型,此模式下客户端和F5建立一个连接,客户端将请求发送给F5,F5再和服务器建立连接,并将请求发送给服务器,服务器返回信息后,F5再将返的回信息送给客户端。

在此模式下F5可以查看请求和响应的所有信息,可以根据所有信息进行分发和处理。

四层转发模式就是VS配置成Performance L4类型,此模式下F5只做四层转发,也就是F5只处理四层以下的信息,即端口和IP信息,具体业务数据不做任何处理。

客户端发送给F5的数据包,F5只根据需要将IP和端口处理之后就直接发送给服务器,响应信息也类似处理。

在此模式下,F5只能查看四层一下信息,不处理业务信息,好处是处理过程简单、速度快。

缺点是无法对四层以上的协议数据进行精确处理。

3. 负载均衡算法F5支持的负载均衡算法分类两大类:静态算法和动态算法,总共将近20种,这里只分析常用的三种算法:轮询、比率、最小连接数。

3.1 轮询轮询算法就是按照后台服务器轮流分发,不考虑服务器承受能力和压力情况。

该算法简单、方便,主要适用于特别大量的访问,同时要求服务器的处理性能基本一致,每个请求产生的压力也相当。

实际中该算法使用不多。

3.2 比例比率算法是首先对每台服务器设定一定的比例,该算法根据该比例进行分发,该算法主要用于已经明确后台服务器的处理能力不同,并能够知道处理能力的大概比例关系的情况;还有一种情况下就是,当需要对后台服务器进行迁移的时候,可以使用该算法,通过调整每台服务器的比例关系,将流量逐渐迁移。

(F5)负载均衡概念原理与部署案例

(F5)负载均衡概念原理与部署案例

前言、1、LTM就是本地流量管理,也就是通常所说的服务器负载均衡。

可以将多个提供相同服务的设备〔pool〕虚拟成一个逻辑设备,供用户访问。

也就是说,对于用户来讲,看到的只有一个设备,而实际上用户是服务请求是在多个设备之间,通过负载均衡算法分担的。

通常可以理解为是一种代理的模式。

2、GTM是广域网流量管理,也可以称为全局负载均衡。

这个模块可以满足用户更高的负载均衡要求,提供不同站点间全局资源的调配。

比方说,用户在北京和上海分别有一个web服务器群〔pool〕,都是提供同样的页面,那么当上海的web服务器负担过重或者宕机时,就可以将流量重定向到北京。

3、BIGIPBIGIP是对负载均衡的实现,主要通过Virtual Server、iRules、Pool、Node、Monitor和Persistent 〔会话保持〕实现。

<1>、Member为每一个服务器的IP地址加上服务端口。

每一个member代表一个应用程序。

在配置过程中,member不需要单独添加,而在Pool的配置中进行。

通常,在一个对外提供同样功能的member组中,所有的member必须保持一致。

<2>、Pool的主要作用是对一组执行相同功能的服务器应用进行捆绑,在Pool中可定义负载均衡算法,将外部的访问流量按照规则分配到不同的服务器上。

在定义一个Pool时,必须知道每台服务器的IP地址和对外提供服务的端口号,不同的服务器可以以不同的端口提供服务,BIGIP 可执行端口映射将这些服务对外进行统一端口服务。

<3>、iRules是BIGIP特性中的一个重要组件, Rule是一个用户编写的script,用来在两个或者更多的pool中进行选择。

换句话说,rule用于根据一定的判断条件选择和一个Virtual Server相关联的pool。

Rules是一个可选的特性使您可以将流量不单是定义到默认的对应Virtual Server的pool。

F5负载均衡器双机切换机制及配置共5文档

F5负载均衡器双机切换机制及配置共5文档

F5负载均衡器双机切换触发机制及配置1 F5 双机的切换触发机制1.1 F5 双机的通信机制F5负载均衡器的主备机之间的心跳信息可以通过以下两种方式进行交互:•通过F5 failover 串口线交换心跳信息(电压信号不断地由一方送到另外一方)处于Standby的系统不断监控Failover上的电平,一旦发现电平降低,Standby Unit 会立即变成Active ,会发生切换(Failover)。

通过串口监控电平信号引起的切换可以在一秒中以内完成(大概200〜300ms)。

四层交换机在系统启动的时候也会监控Failover线缆的电平以决定系统是处于Active状态还是Standby 状态。

在串口Failover 线缆上不传输任何数据信息。

•Failover线缆也可以不米用串口线,而直接米用网络线。

(但F5 不建议这样做,因为网络层故障就可能会两台负载均衡器都处于Active 状态)。

如果米用网络层监控实现Failover, Bigip 将通过1027与1028端口交换心跳信息。

经验证明:两台F5之间一定要用failover cable 连接起来,不连接failover cable 而直接米用网络线连接在一起不可靠,而且造成了网上事故。

F5双机之间的数据信息是通过网络来完成的。

因此运行于HA方式的两台F5设备在网络层必须是相通的。

(可以用网线将两台F5设备直接相连起来,也可以通过其它的二层设备将两台F5设备相连,使F5设备在网络上可以连通对端的Failover IP 地址)。

两台运行于HA方式的四层交换机之间通过网络层交互的信息主要包括:•用于配置同步的信息:通过手工执行config sync 会引起Active 到Standby 系统的配置信息传输。

•用于在发生Failover 时连接维持的信息:如果设置了Connection Mirroring, 处于Active 的四层交换机会将连接表每十秒中发送一次到Standby 的系统。

F5多出口链路负载均衡解决方案(LC)1127

F5多出口链路负载均衡解决方案(LC)1127

F5 Networks多出口链路负载均衡解决方案建议目录一.多出口链路负载均衡需求分析 (3)二.多出口链路负载均衡解决方案概述 (4)2.1多出口链路负载均衡网络拓朴设计 (4)2.2方案描述 (5)2.3方案优点 (6)2.3.1拓扑结构方面 (6)2.3.2安全机制方面 (6)三.技术实现 (7)3.1F5多出口链路负载均衡(产品选型:B IGIP LC) (7)3.2O UTBOUND流量负载均衡实现原理 (8)3.3I NBOUND流量负载均衡实现原理 (9)3.4在链路负载均衡环境中的DNS设计和域名解析方式 (11)3.4.1 Root DNS(注册DNS)直接与F5多链路负载均衡器配合 (11)3.4.2 Root DNS(注册DNS)通过第三方DNS Server与F5多链路负载均衡器配合(我们建议这种方式) (12)3.5F5设备双机冗余----毫秒级切换原理 (14)3.6S TATEFUL F AIL O VER 技术(与F5设备双机冗余有关) (15)四.产品介绍 (16)4.1F5B IGIP LC (16)一.多出口链路负载均衡需求分析为了保证XXXX出口链路的高可用性和访问效率,计划拥有两条线路:一条中国网通链路,一条中国电信链路。

F5公司的多链路负载均衡设备(Bigip)能够提供独具特色的解决方案,不但能够充分利用这两条链路(双向流量按照预设的算法分担到不同的链路上,一旦一条链路不通的情况下,能够无缝切换到另外一条可用链路上);而且可以根据对不同链路的侦测结果,将最快速的链路提供给外部用户进行响应,从而解决目前广泛存在的多个ISP之间的互联互通问题。

具体解决方案特色如下:提供内网至internet流量的负载均衡(Outbound)实现从Internet对服务器访问流量的负载均衡(Inbound)支持自动检测和屏蔽故障Internet链路支持多种静态和动态算法智能均衡多个ISP链路的流量支持多出口链路动态冗余,流量比率和切换支持多种DNS解析和规划方式,适合各种用户网络环境支持Layer2-7交换和流量管理控制功能完全支持各种应用服务器负载均衡,防火墙负载均衡多层安全增强防护,抵挡黑客攻击业界领先的双机冗余切换机制,能够做到毫秒级切换详细的链路监控报表,提供给网络管理员直观详细的图形界面对于用户完全透明对所有应用无缝支持业界优异的硬件平台和性能稳定,安全的设备运行记录二.多出口链路负载均衡解决方案概述2.1 多出口链路负载均衡网络拓朴设计下面是专门为XXXX设计的多出口链路负载均衡网络拓扑图(单机版)。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

F5负载均衡原理
一负载均衡基本概念
1、什么是负载均衡?
负载均衡技术在现有网络结构之上提供了一种廉价、有效、透明的方法,来扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。

它有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。

BIG/IP利用定义在其上面的虚拟IP地址来为用户的一个或多个应用服务器提供服务。

因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。

BIG/IP 连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG/IP根椐目标服务器之间性能和网络健康情况,选择性能最佳的服务器响应用户的请求。

下图描述了一个负载平衡发生的流程:
1. 客户发出服务请求到VIP
2. BIGIP接收到请求,将数据包中目的IP地址改为选中的后台服务器IP地址,然后将数据包发出到后台选定的服务器
3. 后台服务器收到后,将应答包按照其路由发回到BIGIP
4. BIGIP收到应答包后将其中的源地址改回成VIP的地址,发回客户端,由此就完成了一个标准的服务器负载平衡的流程。

2.负载平衡典型流程
●通过VIP来截获合适的需要负载平衡的流量
●服务器监控和健康检查,随时了解服务器群的可用性状态
●负载均衡和应用交换功能,通过各种策略导向到合适的服务器
2.1 通过VIP来截获合适的需要负载平衡的流量
在BIGIP上通过设置VIP来截获需要进行负载平衡的流量,这个VIP地址可以是一个独立的主机地址和端口的组合(例如:202.101.112.115:80)也可以是一个网络地址和端口的组合(例如:202.101.112.0:80),当流量经过BIGIP的时候,凡是命中VIP 的流量都将被截获并按照规则进行负载平衡。

2.2 服务器的健康监控和检查
服务器 (Node) - Ping (ICMP)
BIGIP可以定期的通过ICMP包对后台服务器的IP地址进行检测,如果在设定的时间内能收到该地址的ICMP的回应,则认为该服务器能提供服务
服务 (Port) – Connect
BIGIP可以定期的通过TCP包对后台服务器的服务端口进行检测,如果在设定的时间内能收到该服务器端口的回应,则认为该服务器能提供服务
扩展内容查证(ECV: Extended Content Verification)—ECV
ECV是一种非常复杂的服务检查,主要用于确认应用程序能否对请求返回对应的数据。

如果一个应用对该服务检查作出响应并返回对应的数据,则BIG/IP控制器将该服务器标识为工作良好。

如果服务器不能返回相应的数据,则将该服务器标识为宕机。

宕机一旦修复,BIG/IP就会自动查证应用已能对客户请求作出正确响应并恢复向该服务器传送。

该功能使BIG/IP可以将保护延伸到后端应用如Web内容及数据库。

BIG/ip的ECV 功能允许您向Web服务器、防火墙、缓存服务器、代理服务器和其它透明设备发送查询,然后检查返回的响应。

这将有助于确认您为客户提供的内容正是其所需要的。

扩展应用查证(EAV: Extended Application Verification)
EAV是另一种服务检查,用于确认运行在某个服务器上的应用能否对客户请求作出响应。

为完成这种检查,BIG/IP控制器使用一个被称作外部服务检查者的客户程序,该程序为BIG/IP提供完全客户化的服务检查功能,但它位于BIG/IP控制器的外部。

例如,该外部服务检查者可以查证一个Internet或Intranet上的从后台数据库中取出数据并在HTML网页上显示的应用能否正常工作。

EAV是BIG/IP提供的非常独特的功能,它提供管理者将BIG/IP客户化后访问各种各样应用的能力,该功能使BIG/IP在提供标准的可用性查证之外能获得服务器、应用及内容可用性等最重要的反馈。

该功能对于电子商务和其它应用至关重要,它用于从客户的角度测试您的站点。

例如,您可以模拟客户完成交易所需的所有步骤-连接到站点、从目录中选择项目以及验证交易使用的信用卡。

一旦BIG/ip掌握了该“可用性”信息,即可利用负载平衡使资源达到最高的可用性。

BIG/IP已经为测试Internet服务的健康情况和状态,预定义的扩展应用验证(EAV),它有二种用户界面:浏览器和CLI配置。

BIG/IP预定义的应用检查:FTP、NNTP、SMTP、POP3和MSSQL。

二.负载均衡的分类:
负载均衡的应用相对其他网络技术来说面会窄很多,从技术的角度上,负载均衡分为三类:
1.对链路的负载均衡
对链路的负载均衡主要是指应用方有多条ISP网络出口,比方说电信+网通,电信+铁通等,对链路的负载均衡也是解决目前电信网通互联互通的最专业的技术.其实现的原理是根据负载均衡算法来算出,到目标地址的数据从哪条链路出去延迟最小,那么该条链路将被优先选择.这一点是负载均衡设备区别于策略路由+IP地址库实现网通电信路由选择的地方.
2.对服务器的负载均衡
从严格的意义上来将,对服务器的负载均衡是对相同应用的负载均衡,而跟服务器本身没有太大的关系。

只有相同的应用,才存在负载均衡的概念,不同的应用间是不能做负载均衡的.比方说,我们有FTP SERVER和WEB SERVER各一台,那么这两台SERVER间就不存在负载均衡的应用.目前所有负载均衡的厂商实现对服务器的负载均衡都是基于虚拟IP技术的,负载均衡设备对服务器进行健康检查,然后把检查结果列入设备服务器状态列表里,根据这个检查结果来决定一个请求发送到哪台服务器效果最好,应用广泛的就是F5的LTM系列.
3.对广域网的负载均衡
对广域网的负载均衡主要是应用到一些大的网站上,也有人称其为异地负载均衡.比方说,我们有两台WEB服务器,一台在北京IDC机房(网通),一台在广州IDC机房(电信),两台WEB服务器内容是一样的.那么对这两台服务器来做负载均衡就是一种广域网负载均衡.应用比较广泛的是F5的3DNS设备.
三.负载均衡的算法
负载均衡设备本身都是以负载均衡算法为基础的,负载均衡算法分为两种:静态负载均衡算法和动态负载均衡算法.
●轮询(Round Robin):顺序循环将请求一次顺序循环地连接每个服务器。

当其中某个服务器发生第二到第7层的故障,BIGIP就把其从顺序循环
队列中拿出,不参加下一次的轮询,直到其恢复正常。

●比率(Ratio):给每个服务器分配一个加权值为比例,根椐这个比例,
把用户的请求分配到每个服务器。

当其中某个服务器发生第二到第7层
的故障,BIGIP就把其从服务器队列中拿出,不参加下一次的用户请求
的分配,直到其恢复正常。

●优先权(Priority):给所有服务器分组,给每个组定义优先权,BIGIP
用户的请求,分配给优先级最高的服务器组(在同一组内,采用轮询或比率算法,分配用户的请求);当最高优先级中所有服务器出现故障,BIGIP才将请求送给次优先级的服务器组。

这种方式,实际为用户提供一种热备份的方式。

●最少的连接方式(Least Connection):传递新的连接给那些进行最少
连接处理的服务器。

当其中某个服务器发生第二到第7层的故障,BIGIP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。

●最快模式(Fastest):传递连接给那些响应最快的服务器。

当其中某个
服务器发生第二到第7层的故障,BIGIP就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。

●观察模式(Observed):连接数目和响应时间以这两项的最佳平衡为依
据为新的请求选择服务器。

当其中某个服务器发生第二到第7层的故障,BIGIP就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。

●预测模式(Predictive):BIGIP利用收集到的服务器当前的性能指标,
进行预测分析,选择一台服务器在下一个时间片内,其性能将达到最佳的服务器相应用户的请求。

(被BIGIP进行检测)
●动态性能分配(Dynamic Ratio-APM):BIGIP收集到的应用程序和应用服
务器的各项性能参数,动态调整流量分配。

●动态服务器补充(Dynamic Server Act.):当主服务器群中因故障导致
数量减少时,动态地将备份服务器补充至主服务器群。

●服务质量(QoS):按不同的优先级对数据流进行分配。

●服务类型(ToS):按不同的服务类型(在Type of Field中标识)对数
据流进行分配。

●规则模式:针对不同的数据流设置导向规则,用户可自行编辑流量分配
规则,BIGIP利用这些规则对通过的数据流实施导向控制。

相关文档
最新文档