小区负载均衡算法

小区负载均衡算法
小区负载均衡算法

小区负载均衡算法介绍

1、小区负载均衡算法配置(针对本小区与扩容小区之间)

小区负载均衡算法分为两类PRB利用率负载平衡算法和同步态用户负载均衡算法两种。其中:PRB利用率负载平衡算法用于解决在单个小区PRB利用率受限(达到或者接近满载),同时存在与之重叠覆盖的异频邻区相对低载,算法将一部分负载转移至邻区之后,达到整体PRB利用率之和最大化,从而吞吐率最大化;同步态用户数负载平衡算法用于解决在单个小区用户数受限(由于用户数过多导致整体UE 速率受限),同时存在与之重叠覆盖的异频邻区相对低载,算法将一部分负载转移至邻区之后,达到整体用户速率平均化,从而减少差性用户的比例。笼统地说,PRB利用率负载平衡算法主要用于选大包用户,同步态用户数负载平衡算法主要用于选小包用户。

因为现网用户分布符合类正态分布的特性,即小包用户出现概率大,大包用户出现概率小。所以在现网使用同步态用户负载均衡算法。

同步态用户负载均衡算法关键参数及配置方式如下:

InterFreqMlbSwitch:负载均衡总开关,在CELLALGOSWITCH设置,是进行PRB利用率负载平衡算法和同步态用户负载均衡的总开关,打开此开关才可进行复杂均衡。MML:MOD CELLALGOSWITCH:LOCALCELLID=X,MLBALGOSWITCH=InterFreqMlbSwitch-1;

MlbTriggerMode:异频负载平衡触发模式,当前算法支持两种模式,三种开启方案:单独打开PRB 负载模式(PRB_ONLY)、单独打开用户数模式(UE_NUMBER_ONLY)和支持两个模式同时打开(PRB_OR_UE_NUMBER),现网配置时使用用户数模式即可。MML:MOD CELLMLB:LOCALCELLID=X,MLBTRIGGERMODE=UE_NUMBER_ONLY;

InterFreqUeTrsfType:异频负载均衡转移UE类型。决定转移连接态UE还是释放态UE,区分PRB模式下转移UE连接态还是空闲态,用户数模式下转移UE连接态还是空闲态,一共4个勾选项,可以独立或者同时配置。现网设置SynchronizedUE(同步态用户)、IdleUE(空闲态用户)打开,PrbMlbSynchronizedUE(PRB模式负载均衡同步态用户),异频空闲态小区PRB 利用率负载平衡算法PrbMlbIdleUE(PRB模式负载均衡空闲态用户)关闭即可。MML:MOD CELLMLB:LOCALCELLID=X,INTERFREQUETRSFTYPE=SynchronizedUE-1&IdleUE-1&PrbMlbSynchronizedUE-0&PrbMlbIdleUE-0;

InterFreqMlbUeNumThd:异频负载均衡用户数门限;MlbUeNumOffset:负载均衡用户数偏置。算法高载触发门限,当算法未触发时如果小区同步态用户数大于等于InterFreqMlbUeNumThd + MlbUeNumOffset则触发异频连接态小区同步态用户数负载平衡算法,当算法触发时如果小区同步态用户数小于InterFreqMlbUeNumThd则退出算法。MlbUeNumOffset:负载均衡用户数偏置不需要进行配置,现网默认值20即可。InterFreqMlbUeNumThd异频负载均衡用户数门限设置为小区最大用户数的一半即可。MML:MOD CELLMLB:LOCALCELLID=X,INTERFREQMLBUENUMTHD=(最大用户数/2);

InterFreqLoadEvalPrd:异频负载评估周期,控制算法运行时序,在算法触发之后,负载

平衡周期性执行,每个算法周期InterFreqLoadEvalPrd 执行一次MLB 动作,包括若干次MLB 切换。即负载均衡多少秒进行一次。一般现网话务较高的情况配置15S 即可。MML :MOD CELLMLB:LOCALCELLID=X, INTERFREQLOADEVALPRD=15;

UeNumDiffThd :用户数差值门限,用于比较本区用户数和邻区用户数的差距,算法要求本区选择相对低载的邻区作为MLB 的可选邻区,这里相对低载的判决公式是本区用户数

和邻区用户数差值占本区用户数的比例是否高于UeNumDiffThd (公式为

M N B A M i i *-

> UeNumDiffThd ,其中M ,A 分别为本小区同步态用户数和配置RB 总数,

i N ,i B 分别为邻

区i 的小区同步态用户数和配置RB 总数。 CellCapacityScaleFactor :小区能力缩放因子,计算小区配置RB 总数的缩小或者放大因子,配置RB 总数等于小区可用RB 总数*CellCapacityScaleFactor ,这里小区可用RB 总数根据小区实际可用RB 总数,基于实际RB 数测量获得,在小区总RB 数里扣除掉不能用于业务信道调用的RB 数包括控制信道、公共信道和某些算法导致的蔽塞RB 数,剩下的都是可以用于调用业务信道的RB 数。

以上二者都是用于判决负载均衡是否达到平衡的,简单举个例子:当小区能力缩放因子为1和1的时候,本小区为一个20M 小区,邻区为一个10M 小区,在进行用户数差值门限

判决时,公式变化为M

N M i *21->UeNumDiffThd,若缩放因子为1:2时,公式变化为M N M i -> UeNumDiffThd 。因现网均采用20M 小区组网,所以以上参数均按默认值设置即可。

OverlapInd :重叠覆盖标识,在异频邻区关系中进行设置。算法支持由维测人员设置可作为MLB 目标邻区的标识,当选择某个或者某些邻区为OverlapInd=Yes ,代表本区只会选择这个或者这些邻区作为目标邻区。这个参数默认值为No ,算法会自动检查所有邻区是否为No ,如是,代表不考虑这一标识,即所有邻区都可以作为目标邻区。MML :MOD EUTRANINTERFREQNCELL

LOCALCELLID=X,MCC=”460”,MNC=”00”,ENODEBID=X,OVERLAPIND=YES;

MlbMaxUeNum: 负载均衡最大切换出用户数。算法每隔一个评估周期都会选择一定数量的UE 执行MLB 动作,该参数表示单周期执行MLB 动作的UE 个数上限,实际选择UE 过程中,可能小于或者等于这个上限,不可能大于这个上限,出现小于这个上限的情况是当前满足条件的UE 不够这个数目上限,此时算法本着有多少选多少的原则,选择所有满足条件的UE 。现网设置为20即可。MML :MOD CELLMLB:LOCALCELLID=X, MLBMAXUENUM=20;

MlbUeSelectPrbThd :负载均衡用户选择PRB 门限。表示异频连接态小区同步态用户数负载平衡算法中,选择UE 的负载条件为UE 级上、下行Total 业务PRB 利用率小于等于该门限。该值设置越大,异频连接态小区同步态用户数负载平衡算法越容易选择UE ,有利于该算法的执行效率。简单来说,就是该值设置的越大越容易选择UE ,该值设置的越小越难选择UE 。现网默认值为2%,可以提高到10%,便于扩大可供选择UE 的范围,且设置为10%时,负载均衡算法并不会选择拉网大包用户,因为拉网大包用户的PRB 利用率是远大于10%的。MML :MOD CELLMLB:LOCALCELLID=X ,MLBUESELECTPRBTHD=10;

相关电平设置:现网一般在扩容小区之间(D1D2、E1E2)配置为A3门限。那么在设置电平的时候要保证基于负载的异频RSRP触发门限(负载均衡UE测到的邻区的电平值)小于基于A3的异频A2RSRP触发门限(覆盖切换UE测到的邻区的电平值)。如若不然,会导致UE从本小区到邻区负载均衡切换过去之后,又因为满足小于基于A3的异频A2 RSRP触发门限又切换回来。(比如说当基于负载的A4设置为-100,基于A3的A2设置为-90,当本小区电平为-95,邻区电平为-98时,可以通过负载均衡到邻小区,但是到了邻小区后又会通过覆盖切换A3事件切换回来)。MML:MOD

INTERFREQHOGROUP:LOCALCELLID=X,INTERFREQHOGROUPID=0,A3INTERFREQHOA1THDRSRP=-90,A3INTERFREQHOA2THDRSRP=-105,INTERFREQLOADBASEDHOA4THDRSRP=-103;

2、小区负载均衡算法监控

使用信令跟踪---用户数跟踪,可进行实时的用户数监控,便于观察用户数波动情况。

用户数监控开启:

使用信令跟踪—MLB跟踪,可进行MLB实时情况观察,便于观察MLB开启效果,同时也可以根据此信令跟踪的结果对MLB的电平门限进行优化

。输入本小区信息与需要观察的与本小区负载均衡的邻区的信息,可开启两小区间负载均衡效果观察。

利用本小区异频用户负载平衡选择UE个数,判决是否有那么多用户需要进行负载均衡,如果未达到设定的最大值。那么此时本小区用户可能处于负载均衡门限上波动,或两小区负载均衡趋于平衡。

切至目标小区的UE个数是一个累加的数字,从开启MLB监控开始,因为负载均衡的原因,切至目标小区的连接态用户数。需观察此值在每个周期变化时,增加的数量和当前负载均衡选择的UE数量是否有较大的悬殊。如果有,那证明本小区和邻区覆盖并不重叠造成两小区之间覆盖不均衡或基于负载均衡的A4门限设置过高。

3、小区负载均衡算法效果

桓台联通前鲁2小区负载均衡效果如下图。扩容前(9月9日、10日用户数达到500以上)。9月11日晚上完成扩容,可见未开启负载均衡时2小区和5小区话务量分担并不好。9月12日及以后数据为开启负载均衡后的数据,可见本小区与扩容小区之间话务分担效果良好。(此站点为高校站点,9月12日为周六,话务量出现较大波动,属于正常现象)

几种负载均衡算法

几种负载均衡算法 本地流量管理技术主要有以下几种负载均衡算法: 静态负载均衡算法包括:轮询,比率,优先权 动态负载均衡算法包括: 最少连接数,最快响应速度,观察方法,预测法,动态性能分配,动态服务器补充,服务质量,服务类型,规则模式。 静态负载均衡算法 ◆轮询(Round Robin):顺序循环将请求一次顺序循环地连接每个服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP 就把其从顺序循环队列中拿出,不参加下一次的轮询,直到其恢复正常。 ◆比率(Ratio):给每个服务器分配一个加权值为比例,根椐这个比例,把用户的请求分配到每个服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配, 直到其恢复正常。 ◆优先权(Priority):给所有服务器分组,给每个组定义优先权,BIG-IP 用户的请求,分配给优先级最高的服务器组(在同一组内,采用轮询或比率算法,分配用户的请求);当最高优先级中所有服务器出现故障,BIG-IP 才将请求送给次优先级的服务器组。这种方式,实际为用户提供一种热备份的方式。 动态负载均衡算法 ◆最少的连接方式(Least Connection):传递新的连接给那些进行最少连接处理的服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配, 直到其恢复正常。 ◆最快模式(Fastest):传递连接给那些响应最快的服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。 ◆观察模式(Observed):连接数目和响应时间以这两项的最佳平衡为依据为新的请求选择服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。 ◆预测模式(Predictive):BIG-IP利用收集到的服务器当前的性能指标,进行预测分析,选择一台服务器在下一个时间片内,其性能将达到最佳的服务器相应用户的请求。(被BIG-IP 进行检测) ◆动态性能分配(Dynamic Ratio-APM):BIG-IP 收集到的应用程序和应用服务器的各项性能参数,动态调整流量分配。 ◆动态服务器补充(Dynamic Server Act.):当主服务器群中因故障导致数量减少时,动态地将备份服务器补充至主服务器群。 ◆服务质量(QoS):按不同的优先级对数据流进行分配。 ◆服务类型(ToS): 按不同的服务类型(在Type of Field中标识)负载均衡对数据流进行分配。 ◆规则模式:针对不同的数据流设置导向规则,用户可自行。 负载均衡对应本地的应用交换,大家可以通过对上述负载均衡算法的理解,结合实际的需求来采用合适你的负载均衡算法,我们常用到的一般是最少连接数、最快反应、或者轮询,决定选用那种算法,主要还是要结合实际的需求。

负载均衡调度算法

负载调度算法 负载均衡(Load Balance),又称为负载分担,就是将负载(工作任务)进行平衡、分摊到多个操作单元上进行执行,例如Web服务器、FTP服务器、企业关键应用服务器和其它关键任务服务器等,从而共同完成工作任务。负载均衡建立在现有网络结构之上,它提供了一种廉价又有效的方法来扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。 在调度器的实现技术中,IP负载均衡技术是效率最高的。在已有的IP负载均衡技术中有通过网络地址转换(Network Address Translation)将一组服务器构成一个高性能的、高可用的虚拟服务器,称之为VS/NAT技术。在分析VS/NAT 的缺点和网络服务的非对称性的基础上,提出通过IP隧道实现虚拟服务器的方法VS/TUN,和通过直接路由实现虚拟服务器的方法VS/DR,它们可以极大地提高系统的伸缩性。 在内核中的连接调度算法上,IPVS实现了以下几种调度算法: 1 轮叫调度 1.1 轮叫调度含义 轮叫调度(Round Robin Scheduling)算法就是以轮叫的方式依次将请求调度不同的服务器,即每次调度执行i = (i + 1) mod n,并选出第i台服务器。算法的优点是其简洁性,它无需记录当前所有连接的状态,所以它是一种无状态调度。 轮叫是基站为终端分配带宽的一种处理流程,这种分配可以是针对单个终端或是一组终端的。为单个终端和一组终端连接分配带宽,实际上是定义带宽请求竞争机制,这种分配不是使用一个单独的消息,而是上行链路映射消息中包含的一系列分配机制。 1.2 轮叫调度算法流程 轮询调度算法的原理是每一次把来自用户的请求轮流分配给内部中的服务器,从1开始,直到N(内部服务器个数),然后重新开始循环。在系统实现时,我们引入了一个额外条件,即当服务器的权值为零时,表示该服务器不可用而不被调度。这样做的目的是将服务器切出服务(如屏蔽服务器故障和系统维护),同时与其他加权算法保持一致。所以,算法要作相应的改动,它的算法流程如下:假设有一组服务器S = {S0, S1, …, Sn-1},一个指示变量i表示上一次选择的服务器,W(Si)表示服务器Si的权值。变量i被初始化为n-1,其中n > 0。 j = i; do { j = (j + 1) mod n;

天融信负载均衡算法

1.Rr – Round Robin 默认情况下,访问请求分配的次序为: 1, 2, 3, 4, 1, 2, 3,4 若Servers之间存在性能差异,可以通过调整分配粒度值(weight),来控制访问请求分配的次序: 1, 1, 1, 2, 2, 2, 3, 3, 3,4,4,4, 2.Lc - Least Connections 新的访问请求将分配至当前连接数最少的一台服务器上。分配粒度方法定义了两个服务器的活动连接数要有多大差别,算法里才会将它们区分为不同等级。3.Sr – Shortest Response Time 基于后台服务器的最短相应时间来分配新的访问请求。 4.Pi – Persistent IP 相同IP地址的请求将会分配到相同的服务器上 5.HI - Hash IP 这是一种基于源IP地址Hash来分发新建连接的算法。客户端发送一个请求到虚拟服务器;负载均衡设备将根据源IP地址计算出的哈希值来选择将该访问请求发送到哪一台服务器;对于哈希值相同的请求连接,都将会发送到相同的服务器上。 注意:如果一台服务器失效了,将导致负载均衡设备上的哈希值重新计算,这样对所有原已维持的会话状态都将产生影响。 在负载均衡集群的方式下,客户端到服务器端的对应关系,在其他负载均衡设备上无法维持的,因此当其中一台负载均衡设备失效以后,客户端的请求将会在其他正常的负载均衡重新进行负载分配。 6.CHI – Consistent Hash IP 这是一种基于源IP地址Hash来分发新建连接的算法。 客户端发送一个请求到虚拟服务器;负载均衡设备将根据源IP地址计算出的哈希值来选择将该访问请求发送到哪一台服务器;对于哈希值相同的请求连接,都将会发送到相同的服务器上。 注意:

负载均衡解决方案设计设计

一、用户需求 本案例公司中现有数量较多的服务器群: WEB网站服务器 4台 邮件服务器 2台 虚拟主机服务器 10台 应用服务器 2台 数据库 2台(双机+盘阵) 希望通过服务器负载均衡设备实现各服务器群的流量动态负载均衡,并互为冗余备份。并要求新系统应有一定的扩展性,如数据访问量继续增大,可再添加新的服务器加入负载均衡系统。 二、需求分析 我们对用户的需求可分如下几点分析和考虑: 1.新系统能动态分配各服务器之间的访问流量;同时能互为冗余,当其中 一台服务器发生故障时,其余服务器能即时替代工作,保证系统访问的 不中断; 2.新系统应能管理不同应用的带宽,如优先保证某些重要应用的带宽要 求,同时限定某些不必要应用的带宽,合理高效地利用现有资源;

3.新系统应能对高层应用提供安全保证,在路由器和防火墙基础上提供了 更进一步的防线; 4.新系统应具备较强的扩展性。 o容量上:如数据访问量继续增大,可再添加新的服务器加入系统; o应用上:如当数据访问量增大到防火墙成为瓶颈时,防火墙的动态负载均衡方案,又如针对链路提出新要求时关于Internet访问 链路的动态负载均衡方案等。 三、解决方案 梭子鱼安全负载均衡方案总体设计 采用服务器负载均衡设备提供本地的服务器群负载均衡和容错,适用于处在同一个局域网上的服务器群。服务器负载均衡设备带给我们的最主要功能是:

当一台服务器配置到不同的服务器群(Farm)上,就能同时提供多个不同的应用。可以对于每个服务器群设定一个IP地址,或者利用服务器负载均衡设备的多TCP端口配置特性,配置超级服务器群(SuperFarm),统一提供各种应用服务。

F5负载均衡算法详解

应用交换技术的负载均衡算法 应用交换技术里主要包括四项关键的技术: ●截获和检查流量 ●服务器监控健康检查 ●负载均衡算法 ●会话保持 截获和检查流量保证只有合适的数据包才能通过; 服务器监控和健康检查随时了解服务器群的可用性状态; 负载均衡和应用交换功能通过各种策略导向到合适的服务器; 会话的保持以实现与应用系统完美结合; F5在应用交换技术中的优势: A、截获和检查流量 –BIG-IP 有最强的数据包截获和检查引擎去检查任何数据流量包中的任何部分,可以检测16384bytes包的深度,理论上可以检测 64Kbytes的包长度 –这使得BIG-IP 明显有别于其他的厂商的产品 B、用于定制控制的iRules工具 –可用来定义如何根据报头和/或TCP有效负载信息来引导、保存和过滤流量。 –iRules增强了企业或服务提供商定根据业务需求定制应用流量的能力。 –通用检查引擎和iRules分别是应用智能和业务决策来进行应用流量管理的方法和工具。 C、服务器监控和健康检查

–服务器(Node)-Ping(ICMP) –服务(Port)-Connect –扩展的应用验证(EA V) –扩展的内容验证(ECV) –针对VOD服务器的专用健康检查机制 –针对节点的检查频率和超时频度,e.g.10seconds响应,e.g.5seconds D、负载均衡和应用交换功能 –Global Load Balancer提供17种负载均衡算法 –F5提供最优质的负载均衡和应用交换功能 静态算法 动态算法 智能算法 I –control UIE + Irules –Local Load Balancer提供12种负载均衡算法 E、持续功能 –连续性与负载平衡是相互对立的,但它对于负载平衡又是必不可少的! –简单的连续性—基于源地址 –HTTP Cookie 连续性 –SSL Session ID 连续性 –目的地址的亲合作用--caches –standby BIG-IP实现对连续性记录的镜像 –智能与第七层的内容交换组合 F5做为应用交换领域的领导厂商,一直保持着技术上的领先地位,F5已经有40多项技术申请了专利,其它的竞争合作伙伴都在购买F5的这些专利技术。接下来我们讨论一下负载均衡算法。

几种负载均衡策略比较~

PS:Nginx/LVS/HAProxy是目前使用最广泛的三种负载均衡软件,本人都在多个项目中实施过,参考了一些资料,结合自己的一些使用经验,总结一下。 一般对负载均衡的使用是随着网站规模的提升根据不同的阶段来使用不同的技术。具体的应用需求还得具体分析,如果是中小型的Web应用,比如日PV小于1000万,用Nginx就完全可以了;如果机器不少,可以用DNS轮询,LVS所耗费的机器还是比较多的;大型网站或重要的服务,且服务器比较多时,可以考虑用LVS。一种是通过硬件来进行进行,常见的硬件有比较昂贵的F5和Array等商用的负载均衡器,它的优点就是有专业的维护团队来对这些服务进行维护、缺点就是花销太大,所以对于规模较小的网络服务来说暂时还没有需要使用;另外一种就是类似于Nginx/LVS/HAProxy的基于Linux的开源免费的负载均衡软件,这些都是通过软件级别来实现,所以费用非常低廉。 目前关于网站架构一般比较合理流行的架构方案:Web前端采用 Nginx/HAProxy+Keepalived作负载均衡器;后端采用MySQL数据库一主多从和读写分离,采用LVS+Keepalived的架构。当然要根据项目具体需求制定方案。 下面说说各自的特点和适用场合。 一、Nginx Nginx的优点是: 1、工作在网络的7层之上,可以针对http应用做一些分流的策略,比如针对域名、目录结构,它的正则规则比HAProxy更为强大和灵活,这也是它目前广泛流行的主要原因之一,Nginx单凭这点可利用的场合就远多于LVS了。 2、Nginx对网络稳定性的依赖非常小,理论上能ping通就就能进行负载功能,这个也是它的优势之一;相反LVS对网络稳定性依赖比较大,这点本人深有体会; 3、Nginx安装和配置比较简单,测试起来比较方便,它基本能把错误用日志打印出来。LVS的配置、测试就要花比较长的时间了,LVS对网络依赖比较大。 3、可以承担高负载压力且稳定,在硬件不差的情况下一般能支撑几万次的并发量,负载度比LVS相对小些。 4、Nginx可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等,并且会把返回错误的请求重新提交到另一个节点,不过其中缺点就是不支持url来检测。比如用户正在上传一个文件,而处理该上传的节点刚好在上传过程中出现故障,Nginx会把上传切到另一台服务器重新处理,而LVS就直接断掉了,如果是上传一个很大的文件或者很重要的文件的话,用户可能会因此而不满。 5、Nginx不仅仅是一款优秀的负载均衡器/反向代理软件,它同时也是功能强大的Web应用服务器。LNMP也是近几年非常流行的web架构,在高流量的环境中稳定性也很好。 6、Nginx现在作为Web反向加速缓存越来越成熟了,速度比传统的Squid服务器更快,可以考虑用其作为反向代理加速器。 7、Nginx可作为中层反向代理使用,这一层面Nginx基本上无对手,唯一可以对比

应用负载均衡设计方案v1设计方案

应用负载均衡设计方案v1设 计方案 1.需要有支持应用的负载均衡产品,具备多种负载均衡算法。 2.能够做到根据各个Web服务器的性能,合理地分配服务器群中的每台机器所要处理的请求。 3.能够及时的发现群中的某台机器当掉,从而不对此机器发送请求。当掉机器恢复正常后,自动进行业务处理。 4.可以应对大量的服务访问;至少2, 000, 000条的TCP同时并发连接,至少每秒建立100, 000条连接。 5.有效直观的监控统计界面,包含当前时刻、过去一段时间的请求数量统计、性能统计、会话时间统计。 6.为个人业务提供SSL加密服务,可以将服务器SSL加/解密前移,并提供高效的https加/解密性能。 7.能够提供有效的机制缓解后台应用中间键服务器压力,提高业务的访问量。

一、方案建议 针对上一节提出的需求分析,F5公司充分考虑XXXX现有的实际状况,结合F5公司在 国际上网络优化案例的经验,总结出以下应用交付优化设计方案。 方案采用F5公司的新一代LTM应用交换机BIGIP3400, 提供后台Web服务器集群的负 载均衡;同时,采用另两台BIGIP 3400设备提供后台中间键服务器负载均衡,并减轻中间键服务器的压力。 在负责实现Web服务器负载均衡的BIG-IP 3400上设置两个Vlan , 分别是External Vlan 负责连接外部的防火墙系统, Internal Vlan负责连接部Web服务器集群。并且在该对BIG-IP 3400上,分别采用SSL加速模块帮助后台Web服务器实现业务的加密处理;还采用了动态智能压缩模块帮助XXXX在有限的带宽下实现访问速度的提高和访问量的增大。 在负责实现部中间键服务器负载均衡的BIG-IP 3400也设置两个Vlan,分别是External Vlan 负责连接外部的Web服务器集群, Internal Vlan负责连接部中间键服务器集群。并 且在该对BIG-IP 3400上,采用One-Connection技术降低后台中间键服务器集群的负载。

负载均衡软件实现与硬件实现方案

该文档是word2003—word2007兼容版 软件、硬件负载均衡部署方案 目录 1、硬件负载均衡之F5部署方案 (2) 1.1网络拓扑结构 (2) 1.2反向代理部署方式 (3) 2软件负载均衡方案 (4) 2.1负载均衡软件实现方式之一- URL重定向方式 (4) 2.2负载均衡软件实现方式之二- 基于DNS (5) 2.3负载均衡软件实现方式之三- LVS (8) 2.4负载均衡软件实现方式之四- 专业负载均衡软件 (16) 总结: (16)

1、硬件负载均衡之F5部署方案 对于所有的对外服务的服务器,均可以在BIG-IP上配置Virtual Server实现负载均衡,同时BIG-IP可持续检查服务器的健康状态,一旦发现故障服务器,则将其从负载均衡组中摘除。 BIG-IP利用虚拟IP地址(VIP由IP地址和TCP/UDP应用的端口组成,它是一个地址)来为用户的一个或多个目标服务器(称为节点:目标服务器的IP地址和TCP/UDP应用的端口组成,它可以是internet的私网地址)提供服务。因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。根据服务类型不同分别定义服务器群组,可以根据不同服务端口将流量导向到相应的服务器。BIG-IP连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG-IP根椐目标服务器之间性能和网络健康情况,选择性能最佳的服务器响应用户的请求。如果能够充分利用所有的服务器资源,将所有流量均衡的分配到各个服务器,我们就可以有效地避免“不平衡”现象的发生。 利用UIE+iRules可以将TCP/UDP数据包打开,并搜索其中的特征数据,之后根据搜索到的特征数据作相应的规则处理。因此可以根据用户访问内容的不同将流量导向到相应的服务器,例如:根据用户访问请求的URL将流量导向到相应的服务器。 1.1网络拓扑结构 网络拓扑结构如图所示:

负载均衡系统构架

负载均衡系统构架 负载均衡系统构架 【摘要】随着计算机网络和Internet应用的飞速发展,信息共享日益广泛化,并深入到人们工作和生活的各个领域。人们对信息共享的依赖正逐渐增强。而作为提供信息载体的服务器的压力也越来越大,对于电子商务、信息共享平台急需合理分配访问流量来减少服务器的压力。 本文对目前的负载均衡技术进行简单的阐述,并对现有均衡算法进行简单的比较,分析其不足之处。并采用LVS(Linux虚拟服务器)实现负载均衡的架构。采用Keepalived技术实现负载均衡的高可用性。并对LVS不同策略上实现的均衡结果进行详细的比较。最终完成对负载均衡系统的构建同时提供了详细的系统搭建步骤,为研究该方向的人员提供可靠的参考资料。 【关键词】负载均衡、LVS、Keepalived、高并发 中图分类号:TN711 文献标识码:A 文章编号: 简介 1.1背景 目前随着网络技术的迅速崛起,网络信息共享数据越来越大,访问量和数据流量的快速增长,所需的处理能力和运算强度也越来越大,使得单一的服务器设备根本无法承担。在此情况下,如果花大量的资金进行硬件方面的升级,会造成大量的资源浪费。并且对于下一次升级来说,将会投入更大的成本,如何才能利用现有资源,在少量的投入下解决该问题? 针对此情况而衍生出来的一种廉价有效透明的方法来扩展现有网络设备和服务器的带宽、增加吞吐量、加强网络数 据处理能力、提高网络的灵活性和可用性的技术就是负载均 衡(Load Balance)。 1.2负载均衡技术概述 负载均衡(又称为负载分担),英文名称为Load Balance,其

几种的负载均衡算法

实用标准文案 几种负载均衡算法 本地流量管理技术主要有以下几种负载均衡算法: 静态负载均衡算法包括:轮询,比率,优先权 动态负载均衡算法包括: 最少连接数,最快响应速度,观察方法,预测法,动态性能分配,动态服务器补充,服务质量,服务类型,规则模式。 静态负载均衡算法 ◆轮询(Round Robin):顺序循环将请求一次顺序循环地连接每个服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP 就把其从顺序循环队列中拿出,不参加下一次的轮询,直到其恢复正常。 ◆比率(Ratio):给每个服务器分配一个加权值为比例,根椐这个比例,把用户的请求分配到每个服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配, 直到其恢复正常。 ◆优先权(Priority):给所有服务器分组,给每个组定义优先权,BIG-IP 用户的请求,分配给优先级最高的服务器组(在同一组内,采用轮询或比率算法,分配用户的请求);当最高优先级中所有服务器出现故障,BIG-IP 才将请求送给次优先级的服务器组。这种方式,实际为用户提供一种热备份的方式。 动态负载均衡算法 ◆最少的连接方式(Least Connection):传递新的连接给那些进行最少连接处理的服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配, 直到其恢复正常。

◆最快模式(Fastest):传递连接给那些响应最快的服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直精彩文档.实用标准文案 到其恢复正常。 ◆观察模式(Observed):连接数目和响应时间以这两项的最佳平衡为依据为新的请求选择服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。 ◆预测模式(Predictive):BIG-IP利用收集到的服务器当前的性能指标,进行预测分析,选择一台服务器在下一个时间片内,其性能将达到最佳的服务器相应用户的请求。(被BIG-IP 进行检测) ◆动态性能分配(Dynamic Ratio-APM):BIG-IP 收集到的应用程序和应用服务器的各项性能参数,动态调整流量分配。 ◆动态服务器补充(Dynamic Server Act.):当主服务器群中因故障导致数量减少时,动态地将备份服务器补充至主服务器群。 ◆服务质量(QoS):按不同的优先级对数据流进行分配。 ◆服务类型(ToS): 按不同的服务类型(在Type of Field中标识)负载均衡对数据流进行分配。 ◆规则模式:针对不同的数据流设置导向规则,用户可自行。 负载均衡对应本地的应用交换,大家可以通过对上述负载均衡算法的理解,结合实际的需求来采用合适你的负载均衡算法,我们常用到的一般是最少连接数、最快反应、或者轮询,决定选用那种算法,主要还是要结合实际的需求。

LVS集群之十种调度算法及负载均衡

一、LVS概念 LVS(Linux Virtual Server):Linux 虚拟服务器 LVS是个负载均衡设备,它不提供任何服务,用户请求到这里的时候,它是将客户需求转发至后端真正提供服务的服务,所以说后端的服务称作real server。LVS分为两段,前一段称为ipvsadm(管理集群服务的命令行工具),后面一段叫做ipvs(内核模块)【提示:LVS和iptables不能同时使用】。 二、LVS类型 LB(Load Balancing):负载均衡集群 特性:为了增加能力 HA(High Availability):高可用集群 特性:提供服务的可用性(一年在线时间达到99.999%才行) 计算方法:在线时间/(在线时间/故障处理时间) HP([HPC]High Performance):高性能集群 特性:提供服务的性能 三、LVS组成结构(负载均衡实现方案) 基于DNS域名轮流解析的方法 基于客户端调度访问的方法 基于应用层系统负载的调度方法 基于IP地址的调度方法 其中基于IP的负载调度算法中,IP负载均衡技术是执行效率最高的 四、LVS十种调度算法 1、静态调度: ①rr(Round Robin):轮询调度,轮叫调度 轮询调度算法的原理是每一次把来自用户的请求轮流分配给内部中的服务器,从1开始,直到N(内部服务器个数),然后重新开始循环。算法的优点是其简洁性,它无需记录当前所有连接的状态,所以它是一种无状态调度。【提示:这里是不考虑每台服务器的处理能力】 ②wrr:weight,加权(以权重之间的比例实现在各主机之间进行调度) 由于每台服务器的配置、安装的业务应用等不同,其处理能力会不一样。所以,我们根据服务器的不同处理能力,给每个服务器分配不同的权值,使其能够接受相应权值数的服务请求。 ③sh:source hashing,源地址散列。主要实现会话绑定,能够将此前建立的session信息保留了 源地址散列调度算法正好与目标地址散列调度算法相反,它根据请求的源IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的并且没有超负荷,将请求发送到该服务器,否则返回空。它采用的散列函数与目标地址散列调度算法的相同。它的算法流程与目标地址散列调度算法的基本相似,除了将请求的目标IP地址换成请求的源IP地址,所以这里不一个一个叙述。 ④Dh:Destination hashing:目标地址散列。把同一个IP地址的请求,发送给同一个server。 目标地址散列调度算法也是针对目标IP地址的负载均衡,它是一种静态映射算法,通过一个散列(Hash)函数将一个目标IP地址映射到一台服务器。目标地址散列调度算法先根据请求的目标IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。 2、动态调度 ①lc(Least-Connection):最少连接 最少连接调度算法是把新的连接请求分配到当前连接数最小的服务器,最小连接调度是一种动态调度短算法,它通过服务器当前所活跃的连接数来估计服务器的负载均衡,调度器需要记录各个服务器已建立连接的数目,当一个请求被调度到某台服务器,其连接数加1,当连接中止或超时,其连接数减一,在系统实现时,我们也引入当服务器的权值为0时,表示该服务器不可用而不被调度。 简单算法:active*256+inactive(谁的小,挑谁) ②wlc(Weighted Least-Connection Scheduling):加权最少连接。 加权最小连接调度算法是最小连接调度的超集,各个服务器用相应的权值表示其处理性能。服务器的缺省权值为1,系统管理员可以动态地设置服务器的权限,加权最小连接调度在调度新连接时尽可能使服务器的已建立连接数和其权值成比例。 简单算法:(active*256+inactive)/weight【(活动的连接数+1)/除以权重】(谁的小,挑谁) ③sed(Shortest Expected Delay):最短期望延迟 基于wlc算法 简单算法:(active+1)*256/weight 【(活动的连接数+1)*256/除以权重】 ④nq(never queue):永不排队(改进的sed)

静态负载均衡算法的简单说明

静态负载均衡算法的简单说明 实现的问题: 目前有N个资源Scale1~ScaleN,且这N个资源正在处理个数不等的请求,这时发来M个请求。 如何把M个请求分发到这N个资源中,使得分发完之后这N个资源所处理的请求是均衡的。 名词定义 Scale-资源 Order-请求 compId-每个资源的唯一标识 compId数组-compIdArr 根据每个Scale目前所处理的Order个数多少,从小到大把其对应的compId记录在数组中 负载分配数组-dispatchCountArr 对于dispatchCountArr[i],它的值表示的是可以分发的Order的个数, 分发的compId的范围是在compIdArr[0]到compIdArr[i]之间。 例,如果有3个Scale,它们的compId和当前的Order个数分别为 Scale1:1,Scale2:5,Scale3:12 那么根据这组数据可以构造一个负载分配数组 dispatchCountArr[0]=(5-1)*1=4 表示可以在Scale1上再分配4个Order dispatchCountArr[1]=(12-5)*2=14 表示可以在Scale1和Scale2上平均分配14个Order dispatchCountArr[2]=整型最大值表示可以在Scale1~Scale3上再平均分配任意个Order 当有多个Order订单,需要为每个都分配一个compId时, 1.先从dispatchCountArr[0]开始,如果dispatchCountArr[0]不为0,说明可以把这个订单指派给Scale1, 并且dispatchCountArr[0]的值减1; 2.如果发现dispatchCountArr[0]已经为0,则继续看dispatchCountArr[1], 如果大于0,说明可以再从Scale1和Scale2中取一个进行指派,用dispatchCountArr[1] mod 2产生一个0到1 的index,意思是在Scale1和Scale2之间进行平均分配,取compIdArr[index]作为分配的compId, 同时dispatchCountArr[1]减1 3.如果dispatchCountArr[1]也被减为0,那么继续看dispatchCountArr[2],类似2中的操作, 用dispatchCountArr[2] mod 3产生一个0到2的index,意思是在Scale1到Scale3

奈学:传授“带权重的负载均衡实现算法”独家设计思路

奈学:传授“带权重的负载均衡实现算法”独家设计思路 分布式系统中,大部分系统调用都会涉及到负载均衡,例如:客户端发往服务端的请求首先到达反向代理,然后反向代理再通过负载均衡算法将请求转发到业务系统;或者后端业务系统各模块间的调用前,也需要通过负载均衡算法选择到一个目标节点。 一般情况下,我们对负载均衡的要求就是均匀,确保调用方的请求流量能够均匀的发送到我们冗余部署的N个服务节点上,所以负载均衡的算法一般使用随机或轮询都可以保证被调用结点流量的均匀。 真实情况下,往往由于部署服务的服务器性能或资源分配等原因需要我们为服务结点设置不同的权重,权重高的结点可以分配多一些的流量,同时降低权重低的结点的流量比例。 这时负载均衡就不能简单的使用随机或者轮询了,需要添加对权重的支持。接下来我们分析几种带权重的负载均衡算法,并分析一下他们的优缺点: 一、使用随机数 设计思路如下:首先经过负载均衡后选择到一个结点,然后我们根据权重值再做一道拦截,按权重按比例放行,实现按降低结点流量的效果。例如我们规定权重的范围从0到10之间,0拒绝,10放行。权重值越高,分配的流量就越多。 最简单的实现方案,可以使用随机值,假设设置目标结点的权重值为7,当结点被负载均衡选中后,我们生成一个0到10之间的随机数,小于7放行,大于7则不向目标结点发送请求,需要从新做负载均衡计算,由此实现了将目标结点的流量降低到原来的70%。 方案实现起来很简单,但问题也很明显,我们都知道生成随机数的计算会造成CPU的开销,计算权重又发生在RPC调用过程中,所以每次RPC请求都会额外的增加一次随机数计算,累积起来对CPU额外的开销就很大了。我们可以进一步优化一下。 二、随机数组 我们可以使用一个随机数组代替上文描述的生成随机数的策略,实现同样效果的同时能够减少CPU 的计算量。接下来描述下随机数组算法,同样权重设计为0~10。 我们为每个被调用的结点都生成一个随机数组,数组长度为10。空间分配好后用0和1填充数组,0的个数与结点的权重值一样,同时要保证0在数组中出现的位置是随机的。 我们生成一个代表权重为“4”的随机数组(4个0),如下图所示: 和随机数方案类似,我们在完成负载均衡计算后,进行权重拦截。这个时候我们可以通过访问随机数组代替生成随机数的计算,方案描述如下:记录上一次访问随机数组的位置,取数组下一位置元素值,取到0则放行,1则拒绝,重新进行负载均衡计算。方案的思路是,轮询访问随机数组,到达随机效果。因为数组的内容是随机的。 这两种方案思路是一致的,都是在负载均衡计算后再加一道权重拦截。但这样的问题是流量控制不精确,无法实现精确个节点按权重比例分配流量。我们可以换个思路,实现精确的流量控制。 三、轮询加权重负载策略 设计思路如下,设计一个权重因子,初始值为所有被调用的结点中最大权重值。负载均衡使用轮询算法,被选中结点权重值大于等于权重因子则可以调用,否则用下一结点的权重值与权重因子比较,一轮

小区负载均衡算法

小区负载均衡算法介绍 1、小区负载均衡算法配置(针对本小区与扩容小区之间) 小区负载均衡算法分为两类PRB利用率负载平衡算法和同步态用户负载均衡算法两种。其中:PRB利用率负载平衡算法用于解决在单个小区PRB利用率受限(达到或者接近满载),同时存在与之重叠覆盖的异频邻区相对低载,算法将一部分负载转移至邻区之后,达到整体PRB利用率之和最大化,从而吞吐率最大化;同步态用户数负载平衡算法用于解决在单个小区用户数受限(由于用户数过多导致整体UE 速率受限),同时存在与之重叠覆盖的异频邻区相对低载,算法将一部分负载转移至邻区之后,达到整体用户速率平均化,从而减少差性用户的比例。笼统地说,PRB利用率负载平衡算法主要用于选大包用户,同步态用户数负载平衡算法主要用于选小包用户。 因为现网用户分布符合类正态分布的特性,即小包用户出现概率大,大包用户出现概率小。所以在现网使用同步态用户负载均衡算法。 同步态用户负载均衡算法关键参数及配置方式如下: InterFreqMlbSwitch:负载均衡总开关,在CELLALGOSWITCH设置,是进行PRB利用率负载平衡算法和同步态用户负载均衡的总开关,打开此开关才可进行复杂均衡。MML:MOD CELLALGOSWITCH:LOCALCELLID=X,MLBALGOSWITCH=InterFreqMlbSwitch-1; MlbTriggerMode:异频负载平衡触发模式,当前算法支持两种模式,三种开启方案:单独打开PRB 负载模式(PRB_ONLY)、单独打开用户数模式(UE_NUMBER_ONLY)和支持两个模式同时打开(PRB_OR_UE_NUMBER),现网配置时使用用户数模式即可。MML:MOD CELLMLB:LOCALCELLID=X,MLBTRIGGERMODE=UE_NUMBER_ONLY; InterFreqUeTrsfType:异频负载均衡转移UE类型。决定转移连接态UE还是释放态UE,区分PRB模式下转移UE连接态还是空闲态,用户数模式下转移UE连接态还是空闲态,一共4个勾选项,可以独立或者同时配置。现网设置SynchronizedUE(同步态用户)、IdleUE(空闲态用户)打开,PrbMlbSynchronizedUE(PRB模式负载均衡同步态用户),异频空闲态小区PRB 利用率负载平衡算法PrbMlbIdleUE(PRB模式负载均衡空闲态用户)关闭即可。MML:MOD CELLMLB:LOCALCELLID=X,INTERFREQUETRSFTYPE=SynchronizedUE-1&IdleUE-1&PrbMlbSynchronizedUE-0&PrbMlbIdleUE-0; InterFreqMlbUeNumThd:异频负载均衡用户数门限;MlbUeNumOffset:负载均衡用户数偏置。算法高载触发门限,当算法未触发时如果小区同步态用户数大于等于InterFreqMlbUeNumThd + MlbUeNumOffset则触发异频连接态小区同步态用户数负载平衡算法,当算法触发时如果小区同步态用户数小于InterFreqMlbUeNumThd则退出算法。MlbUeNumOffset:负载均衡用户数偏置不需要进行配置,现网默认值20即可。InterFreqMlbUeNumThd异频负载均衡用户数门限设置为小区最大用户数的一半即可。MML:MOD CELLMLB:LOCALCELLID=X,INTERFREQMLBUENUMTHD=(最大用户数/2); InterFreqLoadEvalPrd:异频负载评估周期,控制算法运行时序,在算法触发之后,负载

实现服务器负载均衡常见的四种方法

为了提高服务器的性能和工作负载能力,天互云计算通常会使用DNS服务器、网络地址转换等技术来实现多服务器负载均衡,特别是目前企业对外的互联网Web 网站,许多都是通过几台服务器来完成服务器访问的负载均衡。 目前企业使用的所谓负载均衡服务器,实际上它是应用系统的一种控制服务器,所有用户的请求都首先到此服务器,然后由此服务器根据各个实际处理服务器状态将请求具体分配到某个实际处理服务器中,对外公开的域名与IP地址都是这台服务器。负载均衡控制与管理软件安装在这台服务器上,这台服务器一般只做负载均衡任务分配,但不是实际对网络请求进行处理的服务器。 一、企业实现Web服务器负载均衡 为了将负载均匀的分配给内部的多个服务器上,就需要应用一定的负载均衡策略。通过服务器负载均衡设备实现各服务器群的流量动态负载均衡,并互为冗余备份。并要求新系统应有一定的扩展性,如数据访问量继续增大,可再添加新的服务器加入负载均衡系统。 对于WEB服务应用,同时有几台机器提供服务,每台机器的状态可以设为regular(正常工作)或backup(备份状态),或者同时设定为regular状态。负载均衡设备根据管理员事先设定的负载算法和当前网络的实际的动态的负载情况决定下一个用户的请求将被重定向到的服务器。而这一切对于用户来说是完全透明的,用户完成了对WEB服务的请求,并不用关心具体是哪台服务器完成的。 二、使用网络地址转换实现多服务器负载均衡 支持负载均衡的地址转换网关中可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。很多硬件厂商将这种技术集成在他们的交换机中,作为他们第四层交换的一种功能来实现,一般采用随机选择、根据服务器的连接数量或者响应时间进行选择的负载均衡策略来分配负载。然而硬件实现的负载控制器灵活性不强,不能支持更优化的负载均衡策略和更复杂的应用协议。 基于网络地址转换的负载均衡器可以有效的解决服务器端的CPU和磁盘I/O负载,然而负载均衡器本身的性能受网络I/O的限制,在一定硬件条件下具有一定的带宽限制,但可以通过改善算法和提高运行负载均衡程序的硬件性能,来提高这个带宽限制。不同的服务类型对不同的服务器资源进行占用,我们使用的负载衡量策略是使用同一个负载进行评估,这对于大多数条件是适合的,然而最好的办法是针对不同的资源,如CPU、磁盘I/O或网络I/O 等,分别监视服务器负载,由中心控制器选择最合适的服务器分发客户请求。 三、使用DNS服务器实现负载均衡

负载均衡方案设计

负载均衡有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。 算法 提供多个WAN ports可作多种负载平衡算法则,企业可依需求自行设定负载平衡规则,而网络存取可参照所设定的规则,执行网络流量负载平衡导引。算法则有: ◎依序Round Robin ◎比重Weighted Round Robin ◎流量比例Traffic ◎使用者端User ◎应用别Application ◎联机数量Session ◎服务别Service ◎自动分配Auto Mode Inbound Load Balancing 内建Inbound Load Balance 功能,可让企业透过多条ISP线路,提供给浏览者更实时、快速与稳定不断线的因特网在线服务; Inbound负载平衡算法包括:Round Robin/ Weighted Round Robin/Auto Back Up; 功能 内建DNS服务器,可维护多个网域(domain),每个网域又可以新增多笔纪(A/CNAME/MX),达到Inbound oad Sharing的功能。 ■Server Load Balancing AboCom服务器负载均衡提供了服务级(端口)负载均衡及备援机制。主要用于合理分配企业对外服务器的访问请求,使得各服务器之间相互进行负载和备援。 AboCom服务器负载与服务器群集差异: 一旦有服务器故障,群集技术只对服务器的硬件是否正常工作进行检查;AboCom服务器负载则对应用服务端口进行检查,一旦服务器的该应用服务端口异常则自动将访问请求转移到正常的服务器进行响应。 ■VPN Trunk 负载均衡 支持同时在多条线路上建立VPN连接,并对其多条VPN线路进行负载。不仅提高了企业总部与分支机构的VPN访问速度,也解决了因某条ISP线路断线造成无法访问的问题。进行VPN 负载均衡时VPN访问数据将同时在多条VPN线路上进传输。当一条VPN线路故障时,所有流量将自动切换到正常的VPN线路上进行传输。 QoS(带宽管理) 个人带宽管理:可实现每个人的网络带宽分配、管理,可以设置保证带宽用以保障个人应用不受整体环境影响。每日带宽配额:可以针对个人、群组或部门等分别设置带宽配额,这样可以

LTE系统的移动负载均衡要点

LTE 系统的移动负载均衡技术 摘要—在本文中我们提出的仿真结果表明,一个基于自动调节切换门限的简单的分布式同频负载均衡算法能显著降低LTE(Long Term Evolution,长期演进)网络中的呼叫阻塞率,并提高蜂窝边缘的吞吐量。 【关键词】LTE 负载均衡 切换 SON 无线电资源管理(RRM) 简介 负载均衡的描述为,将过载小区的负载分配给轻载的相邻小区使整个网络的无线资源运用更有效率。在本文中,我们所关心的是同频负载平衡机制,它在几分钟或几小时内测量反应时间,并能在长期演进网(LTE )中以最低的额外信令实现。 有很多方法可以重新分配小区之间的负载。一种方法是通过修改导频功率来调整小区的覆盖范围[1]。一个更强的导频功率实际上可以允许更多的远距离的用户进入小区,从而达到增加覆盖范围的目的。然而,自动调节小区覆盖范围冒着可能会造成覆盖漏洞的风险。另一种重新分配小区负载方法是修改两个相邻小区之间的切换区域。这种方法被称为移动负载均衡(MLB )。移动负载均衡的规则是一偏置切换测量值来调整切换区域,致使超载小区的边缘用户切换到负载较轻的相邻小区,从而提高资源的利用效率[2]。其结果是在呼叫阻塞率的降低和蜂窝边缘的吞吐量的提高。由于小区间负载分配自动的被完成,这种技术是自组织网络(SON )算法的一种。 本文的结构安排如下:在第二节中将介绍一个简单的分布式负载均衡算法;在第三节中,将介绍一个仿真模型并给出仿真结果;最后的结论将在第四节给出。 移动负载均衡 根据文献[3],切换可以被许多事件所触发。在这篇文章中我们只涉及一个特定的事件,这个事件被称为事件A3,触发事件A3是当一个特定用户检测到一个相邻小区的信号质量比当前服务小区的好时进行切换触发。这个触发条件可以被描述为公式(1),其中i 和j 分别是当前小区和相邻小区,Mi 和Mj 分别是用户测量到小区i 和j 的信号强度,()O f i 和()O f j 分别是小区i 和j 的频率fi 与fj 的频率偏移,()cs i O 是服务小区的小区偏置,(),cn i j O 是小区i 对j 的小区偏置,ξ和η分别是一个滞后术语和一个固定的偏移量。Mi 的测量值可以是一个单位为dBm 的参考信号接收功率的形式,或者是单位为dB 的参考信号接收质

相关文档
最新文档