QoS 机制及其互操作性简述
QOS技术原理及配置.

• 保证服务:它提供保证的带宽和时延限制来满足应用程序的要求。 • 负载控制服务:它保证即使在网络过载的情况下,能对报文提供 近似于网络未过载类似的服务,即在网络拥塞的情况下,保证某 些应用程序的报文低时延和优先通过。
Differentiated service
(区分服务模型,简称DiffServ)
WRED和队列机制的关系
WRED和队列机制关系示意图
令牌桶
用令牌桶评测流量
流量监管
丢弃:比如对评估结果为“不符合”的报文进行丢弃 转发:比如对评估结果为“符合”或者“不符合”的报文进
行转发
改变802.1p 优先级并转发:比如对评估结果为“符合”
的报 文将之标记为其它的802.1p 优先级后再进行转发;
������
广播或者组播报文流量密集,瞬间突发流量大的网络 环境中。 ������ 报文从高速链路进入设备,由低速链路转发出去;或 者报文从相同速率的多个接口同时进入设备,由一个 相同速率的接口转发出去。
流镜像
流镜像功能是指通过引用ACL 进行流识别, 将通过指定端口的匹配ACL 规则的报文镜 像到目的端口
QoS服务模型简介
通常QoS提供以下三种服务模型(服务模型, 是指一组端到端的QoS功能):
☆ Best-Effort service(尽力而为服务模型) ☆ Integrated service(综合服务模型,简称IntServ) ☆ Differentiated service
(区分服务模型,简称DiffServ)
解决网络拥塞—队列技术
具体过程包括队列的创建、报文的分类、将报 文送入不同的队列、队列调度等 队列调度将对不同优先级的报文进行分别处理, 优先级高的报文会得到优先处理。 常用的队列有FIFO、PQ、CQ、WFQ、 CBWFQ、RTP优先队列等
宽带通信网QOS机制

宽带通信网QoS机制摘要:本文首先介绍了什么是QoS,以及目前宽带接入网络的QoS现状,然后给出了如何保障QoS的诸多有效机制,针对宽带通信网提出了QoS保障的解决方案,最后从网络转型的角度探讨了在宽带接入网络实施QoS的主要思路及相关技术。
一、概述:今天,我们已经很难想象,如果没有了诸如电话网、移动通信网和互联网(Internet)这些通信网络,人们的日常工作和生活会变得怎样步履维艰。
而是几年前的人们也同样无法想象当今的世界会因为网络技术的飞速发展而如此精彩。
当前网络技术仍然在快速地发展之中。
可以预见,未来网络将更深入到整个社会和人们的日常生活之中,能够使今天的许多梦想变为现实。
能用于构建宽带通信网络的技术主要是异步传输模式(ATM)与互联网协议(IP)。
这两种技术都具有支持各种宽带业务的能力,二者是相互竞争的。
ATM从传统电信网络发展而来,具有服务质量(QoS)保障,安全性好,易于管理和运营,但网络相当复杂,开放性差。
IP从计算机网络发展而来,其协议简单,最初的设计目标只是用于数据通信。
开放性使以IP为基础的互联网获得了巨大成功。
IP 技术已经成为了宽带网络中的主流技术。
但是由于IP协议自身的不足,Internet 也面临了巨大挑战:地址匮乏、缺乏QoS保障、网络安全问题、移动性支持、可运营和可管理能力不足等等都成为IP网络支持更多宽带业务的障碍。
当前,随着市场和技术的变化使得固网运营商正在寻求新的业务战略转型,传统的通信业务正向信息娱乐、数字化生活领域扩展,IPTV、VoIP以及P2P应用等业务种类不断丰富。
这使得宽带网络所承载的业务将从以传统互联网业务为主逐步向多业务承载方向发展。
这就要求宽带网络实施网络转型,以适应业务需求的变化和业务发展的要求。
能否成功实施网络转型涉及多个方面的因素,包括网络的物理架构、网络的业务提供及QoS能力、网络的运营支撑体系等。
其中,网络的业务提供及QoS 能力是最基本的因素。
Qos

QOS是什么默认分类2009-12-19 18:56:42 阅读611 评论0 字号:大中小订阅QoS(Quality of Service),中文名为"服务质量"。
它是指网络提供更高优先服务的一种能力,包括专用带宽、抖动控制和延迟(用于实时和交互式流量情形)、丢包率的改进以及不同WAN、LAN 和MAN 技术下的指定网络流量等,同时确保为每种流量提供的优先权不会阻碍其它流量的进程。
QoS是网络的一种安全机制, 是用来解决网络延迟和阻塞等问题的一种技术。
在正常情况下,如果网络只用于特定的无时间限制的应用系统,并不需要QoS,比如Web应用,或E-mail设置等。
但是对关键应用和多媒体应用就十分必要。
当网络过载或拥塞时,QoS 能确保重要业务量不受延迟或丢弃,同时保证网络的高效运行。
QOS的功能:QoS的英文全称为"Quality of Service",中文名为"服务质量"。
QoS是网络的一种安全机制, 是用来解决网络延迟和阻塞等问题的一种技术。
在正常情况下,如果网络只用于特定的无时间限制的应用系统,并不需要QoS,比如Web应用,或E-mail设置等。
但是对关键应用和多媒体应用就十分必要。
当网络过载或拥塞时,QoS 能确保重要业务量不受延迟或丢弃,同时保证网络的高效运行。
QoS具有如下功能:1.分类分类是指具有QoS的网络能够识别哪种应用产生哪种数据包。
没有分类,网络就不能确定对特殊数据包要进行的处理。
所有应用都会在数据包上留下可以用来识别源应用的标识。
分类就是检查这些标识,识别数据包是由哪个应用产生的。
以下是4种常见的分类方法。
(1)协议有些协议非常“健谈”,只要它们存在就会导致业务延迟,因此根据协议对数据包进行识别和优先级处理可以降低延迟。
应用可以通过它们的EtherType进行识别。
譬如,AppleTalk协议采用0x809B,IPX使用0x8137。
4-QoS原理与技术资料

IETF DiffServ工作组定义了四种标准的PHB
BE PHB:DSCP为“000000”;代表尽力而为的服务。 CS PHB:DSCP为“XXX000”,X为0或1;代表的服务等级与在现有网络中使用 的IP Precedence保持相同。 EF PHB:DSCP为“101110”;代表DiffServ网络中最高的服务质量,适用于VoIP 、虚拟租用线等实时业务。 AF PHB:代表带宽有保证、时延可控的服务,适用于视频业务、VPN业务等, AF PHB定义了4个服务等级,每个服务等级有3个分组丢弃优先级。 AF ij编码点 服务等级 AF(i=4) AF(i=3) AF(i=2) AF(i=1) 低丢弃优先级,j=1 中等丢弃优先级,j=2 高丢弃优先级,j=3 100010 011010 010010 001010 100100 011100 010100 001100 100110 011110 010110 001110
Best-Effort Service模型:尽力而为,路由器的默认转发行为。
Integrated Service模型:综合服务模型,简称IntServ,是端到端的基 于流的QoS技术,它通过信令向网络申请特定的QoS服务,网络在流
量参数描述的范围内,预留资源以承诺满足该请求。
Differentiated Service模型:区分服务模型,简称DiffServ,是一种基 于类的QoS技术,它在网络边界将数据流按QoS要求进行分类,并根
据业务的不同服务等级约定,有差别地进行流量控制和转发来解决拥
塞问题。
Best-Effort模型
最简单,路由器的默认行为
尽最大的可能性发送报文
对时延可靠性等性能不提供保证
QoS技术原理和应用-1

QoS 基本原理和应用-1目录QoS 基本原理和应用 (1)1 QOS技术的起因 (1)2 QOS相关的术语 (1)3 QoS 服务模型 (2)3.1 Int-Serv模型 (2)3.2 Diff-Serv模型 (2)4 不同IP QoS模型的互操作性 (3)5 流量管理技术 (4)5.1 流分类: (4)5.2 流量监管: (4)5.3 流量整形: (4)5.4 拥塞管理(队列调度技术) (4)5.5 拥塞避免(Congestion Avoidance) (7)QoS 基本原理和应用-11 QOS技术的起因随着网络技术的飞速发展,互联网中的业务越来越多样化,目前互联网中传输的数据不再是当初的Email、FTP、WWW等简单的业务,多媒体业务、电子商务等新业务迅速发展,一些实时性强的业务如涉及语音和视频的IP电话、在线电影、多媒体游戏等要求网络有足够的带宽和低的转发时延。
网络的普及,业务的多样化,使互联网流量激增,产生网络拥塞,转发时延增加,严重时还会产生丢包,导致业务质量下降或不可用。
如何解决日益增长的流量在有限的带宽上产生的拥塞,如何在有限的带宽上提供有效的服务,如何在网络中控制不同业务的流量,如何为语音、视频等实时性业务提供低时延的转发,成为当今网络技术的重要课题。
这些问题都直接影响着业务提供的质量,QoS技术就是在这种背景下发展起来的,QoS是Quality of Service(服务质量)的简称,QoS技术在当今的互联网中应用越来越多,其作用越来越重要,如果没有QoS技术,业务的服务质量就无法保证。
2 QOS相关的术语●延迟:延迟就是分组从一端到达另一端所需要的时间●语音、视频、telnet、电子交易等业务对延迟比较敏感,延迟过大会降低服务质量。
●延迟抖动(亦简称抖动):延迟不是固定的,抖动就是指延迟的时间差。
●语音、视频业务对抖动很敏感,抖动过大会导致语音、图像断续,降低服务质量。
●丢包率:在传输过程中,分组在途中丢失的数量占总分组数量的百分比●带宽:对某个流或某个链路上的分组吞吐率通常在给定带宽的情况下,QoS服务质量重点关注延迟和抖动,在没有拥塞时,一般不会出现丢包,而延迟和抖动更难于控制,这与设备处理能力和带宽有很大关系。
qos原理

qos原理QoS (Quality of Service) 简介什么是 QoSQoS (Quality of Service) 是一种网络技术,用于提供网络服务的质量和性能管理。
它可以根据应用程序或用户的需求,为网络流量分配优先级,并确保关键应用程序的可靠性和实时性。
QoS 的原理QoS 的实现基于以下几个原理:•流量分类:将不同的网络流量分为不同的类别,例如实时应用程序流量、音频/视频流量和普通数据流量。
•优先级定义:为每个流量类别定义优先级,并根据应用程序或用户要求设置相应的参数,如延迟、带宽和丢包率。
•流量控制:通过技术手段控制不同流量类别的带宽使用,确保关键应用程序的流量能够得到足够的带宽。
•拥塞管理:使用拥塞避免和拥塞控制算法来解决网络中的拥塞问题,以保证网络的性能和可靠性。
QoS 的优势QoS 带来了以下几个优势:•服务质量保证:QoS 可以为关键应用程序提供更快的响应时间和更高的网络性能,从而提高用户体验。
•带宽管理:QoS 可以监控和调整带宽使用,避免带宽浪费,确保关键应用程序的带宽优先级。
•应用程序优化:QoS 可以根据应用程序的需求进行优化,如保证实时音视频流畅传输,减少延迟和抖动。
•网络拥塞控制:QoS 可以通过拥塞管理算法,控制网络拥塞,提高网络的稳定性和可靠性。
•资源分配效率:QoS 可以根据流量的优先级动态分配资源,提高网络资源的利用效率。
QoS 的应用场景QoS 在以下场景中得到广泛应用:•企业网络:QoS 可以确保关键业务的网络性能,如视频会议、实时数据传输等。
•云计算:QoS 可以为云服务提供商提供资源管理和分配,保证不同用户的应用程序得到合适的网络性能。
•多媒体流媒体:QoS 可以保证音视频流畅传输,提供更好的观看和听感体验。
•物联网:QoS 可以为物联网设备提供可靠的网络连接,确保数据的实时性和可用性。
总结QoS 是一种网络技术,通过流量分类、优先级定义、流量控制和拥塞管理等手段,提供网络服务的质量和性能管理。
01-01 QoS简介

1 QoS简介QoS用于评估服务方满足客户服务需求的能力。
通过配置QoS,对企业的网络流量进行调控,避免并管理网络拥塞,减少报文的丢失率,同时也可以为企业用户提供专用带宽或者为不同的业务(语音、视频、数据等)提供差分服务。
QoS产生的背景网络的普及和业务的多样化使得互联网流量激增,从而产生网络拥塞,增加转发时延,严重时还会产生丢包,导致业务质量下降甚至不可用。
所以,要在网络上开展这些实时性业务,就必须解决网络拥塞问题。
解决网络拥塞的最好的办法是增加网络的带宽,但从运营、维护的成本考虑,这是不现实的,最有效的解决方案就是应用一个“有保证”的策略对网络流量进行管理。
QoS技术就是在这种背景下发展起来的。
QoS(Quality of Service)即服务质量,其目的是针对各种业务的不同需求,为其提供端到端的服务质量保证。
QoS是有效利用网络资源的工具,它允许不同的流量不平等的竞争网络资源,语音、视频和重要的数据应用在网络设备中可以优先得到服务。
QoS技术在当今的互联网中应用越来越多,其作用越来越重要。
QoS服务模型l Best-Effort服务模型Best-Effort是最简单的QoS服务模型,用户可以在任何时候,发出任意数量的报文,而且不需要通知网络。
提供Best-Effort服务时,网络尽最大的可能来发送报文,但对时延、丢包率等性能不提供任何保证。
Best-Effort服务模型适用于对时延、丢包率等性能要求不高的业务,是现在Internet的缺省服务模型,它适用于绝大多数网络应用,如FTP、E-Mail等。
l IntServ服务模型IntServ模型是指用户在发送报文前,需要通过信令(Signaling)向网络描述自己的流量参数,申请特定的QoS服务。
网络根据流量参数,预留资源以承诺满足该请求。
在收到确认信息,确定网络已经为这个应用程序的报文预留了资源后,用户才开始发送报文。
用户发送的报文应该控制在流量参数描述的范围内。
网络优化中的QoS技术与应用

网络优化中的QoS技术与应用随着互联网的普及和发展,网络性能的稳定性和质量逐渐成为用户关注的焦点。
为了满足用户对高质量网络服务的需求,网络优化中的QoS(Quality of Service)技术应运而生。
本文将探讨网络优化中的QoS技术以及其在实际应用中的作用与影响。
一、QoS技术的概述网络优化中的QoS技术是指通过一系列的机制和策略,为网络中的不同流量提供不同的服务质量,保证特定的性能要求得到满足。
QoS 技术主要涉及带宽管理、流量控制、优先级队列调度等方面的内容。
通过对流量进行分类和调度,QoS技术可以有效提高网络的可靠性、稳定性和传输质量。
二、QoS技术的分类根据不同的性能要求和应用场景,QoS技术可以分为以下几类:1.差异化服务(Differentiated Services):差异化服务通过为数据包设置不同的服务等级,根据其优先级和重要性调度流量,并提供不同的带宽、延迟和抖动等。
这种技术适用于对实时应用和关键业务具有严格要求的场景,如语音通话和视频会议。
2.积极队列管理(Active Queue Management):积极队列管理通过对网络中的传输队列进行智能调度,保持队列中的平衡和稳定性,避免拥塞和丢包。
常见的积极队列管理算法包括RED(Random Early Detection)和WRED(Weighted Random Early Detection)等。
3.流量控制(Traffic Control):流量控制是通过限制和调整数据包的传输速率和发送频率,防止网络拥塞和资源浪费。
流量控制可以采用主动式、被动式或混合式的方式进行,常见的流量控制策略包括速率限制、窗口控制和拥塞避免等。
4.拥塞控制(Congestion Control):拥塞控制是指在网络中发生拥塞时,通过降低发送速率和调整传输策略,减少数据包在网络中的丢失和延迟,提高网络性能和吞吐量。
TCP协议中的拥塞控制算法如TCP Reno和TCP Vegas等是常用的拥塞控制技术。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
QoS 机制及其互操作性简述过去的几年,出现了很多针对服务质量(QoS) 网络的机制。
这些机制的最终目的在于为网络边缘的应用程序提供更好的网络服务。
本白皮书中,我们对QoS 的优势做了简要的讨论。
然后讨论了有哪些QoS 机制,以及在它们之间如何实现互操作。
1 引言在过去的几年中,出现了很多针对服务质量(QoS) 网络的机制。
这些机制的最终目的,在于为网络边缘的应用程序提供更好的网络服务。
在本白皮书中,我们简要讨论了QoS 的优势。
然后讨论了一些可用的QoS 机制,及它们如何进行互操作。
本文档的第 2 部分,“Microsoft QoS 组件”,则讨论了Microsoft 特有的QoS 机制,这部分也可以单独作为参考。
2 QoS 的优势近年来,我们目睹了计算机网络通信的迅猛发展。
为了跟上不断增长的需求,网络管理员已经非常努力地不断增加容量。
但网络客户还是经常对网络的性能不满。
随着新型的渴求资源型多媒体应用程序的普及,这种状况更加恶化。
QoS 机制提供了一套可供网络管理员使用的工具,能用有效的控制方式管理网络资源的使用。
这样就可以为执行关键任务的应用程序和用户提供更好的服务,同时也减缓了容量需求增长的速度。
换言之,QoS 可以帮助您在降低服务成本的同时,改善对网络用户的服务。
2.1 特定示例以下几个段落描述了几个特定示例,从中可以看到QoS 部署所带来的收益。
通过WAN 链接的关键任务应用程序的性能改善诸如SAP 和PeopleSoft 之类的应用程序,经常用在广域Intranet 上,提供关键任务服务。
这些链接特别容易拥塞,导致应用程序响应迟缓或会话超时,代价很大。
使用QoS,网络管理员可以让关键任务通信优先进行,使其免于在WAN 链接上拥塞。
而对与其竞争的重要性次之的应用程序,代价也微不足道。
QoS 方法好比在繁忙的高速公路上为经常往返的车辆提供专用通道。
关键任务通信被引向这些“通道”。
控制多媒体通信在网络上的影响多媒体数据流应用程序,如Windows Media™ Technologies、NetMeeting® 会议软件、RealAudio 和基于TAPI 3.0 的应用程序,在网络用户中越来越普及。
它们会生成大量UDP 通信。
这种通信在网络拥塞时也不“后退”,从这个意义上说它对网络是不友好的。
由于这种通信对网络资源的潜在影响,一般禁止或限制网络管理员在网络上部署多媒体应用程序。
而QoS 机制让网络管理员可以控制这些应用程序在网络上的影响。
启用多媒体在上面示例中,我们讨论了使用QoS 来控制多媒体数据流应用程序对网络资源的影响,而无需考虑事实上为多媒体应用程序提供的服务。
QoS 可用于为特定的数据流媒体应用程序提供特定的服务质量保障。
在这种情况下,QoS 让多媒体和数据网络实现了真正的收敛。
这种收敛的优势包括,可以使用IP 电话服务节省相当的开销。
3 QoS 工作原理应用程序按变化的速率生成通信,并通常需要网络也按生成速率传送通信。
而且,各种应用程序对网络通信延迟及延迟的变化容许能力有大有小。
某些应用程序可以容忍通信有一定的丢失,其它则不能。
如果可用的网络资源是无限的,所有应用程序通信都可以按应用程序需要的速度、零反应时间、零数据包丢失地传送。
但网络资源毕竟不是无限的。
所以,总有一部分网络不能满足对资源的需求。
网络是通过连接一系列诸如交换机和路由器等网络设备建成的。
网络设备之间使用接口来转发通信。
如果通信到达接口的速度大于接口向下一个设备转发的速度,就会发生拥塞。
因此,转发通信的接口容量成为一项基本的网络资源。
QoS 机制的工作原理就是,优先于其它通信为某些通信分配资源。
要做到这一点,首先必须识别不同的通信。
通过“数据包分类”,到达网络设备的通信分成不同的“流”。
然后,每个流的通信被引向转发接口上的相应“队列”。
每个接口上的队列都根据一些算法接受“服务”。
队列服务算法决定了每个队列通信被转发的速度,进而决定分配给每个队列和相应流的资源。
这样,为提供网络QoS,必需在网络设备中预备或配置下列各项:信息分类,让设备把通信分成不同的流。
队列和队列服务算法,处理来自不同流的通信。
我们把这些一起称为“通信处理机制”。
单独通信处理机制并没有用。
它们必须按一种统一的方式在很多设备上预备或配置,这种方式为网络提供了有用的端到端“服务”。
因此,要提供有用的服务,既需要通信处理机制,也需要预备和配置机制。
4 QoS 技术在下面几节中,我们将回顾一些用于提供QoS 的重要通信处理机制和重要预备和配置机制。
4.1 通信处理机制有许多通信处理机制可供使用。
在这一节,我们集中讨论几个重要的机制,包括“混合服务” (diffserv)、802.1p、“集成服务” (intserv)、ATM 和ISSLOW。
注意,通信处理机制可以分成“每对话”机制或“集合”机制。
每对话机制将每个对话的每个通信流都分开对待。
集合机制则把许多通信流归为一个集合类。
这种区别可以比作接待航空乘客。
一般,乘客被“标记”为头等舱、商务舱或普通舱。
同一个舱的所有乘客都一起处理。
这就是集合处理。
每对话处理就好象为每个乘客提供专线飞机--奢侈而昂贵。
4.1.1 混合服务(Diffserv)Diffserv 是一种集合通信处理机制,适用于大型路由网络。
这类网络可以传送成千上万的对话。
因此基于每对话原则处理通信是不切实际的。
Diffserv 在数据包IP 报头中定义了一个字段,称为diffserv 码点(DSCP)1。
发送通信至diffserv 网络的主机或路由器用DSCP 值标记每个被传送的数据包。
Diffserv 网络内的路由器使用DSCP 给数据包分类,并根据分类结果应用特定的队列行为。
如果许多流的通信有相似QoS 要求,则使用相同DSCP 标记,这样就把流集合至公共队列,或为其行为做日程安排。
4.1.2 802.1p802.1p 是适合局域网(LAN) 使用的集合通信处理机制。
它在以太网数据包的媒体访问(MAC) 报头中定义了一个字段,每个字段可以是八个优先级中的一个值。
发送通信至LAN 的主机或路由器用适当的优先级值标记每个被传送的数据包。
LAN 设备,如交换机、网桥和网络集线器,将按相应的方式处理数据包。
802.1p 优先级标记的作用域只限于LAN。
4.1.3 集成服务(Intserv)Intserv 是一个服务定义框架。
同样,它意味着一套基础通信处理机制。
一般认为,Intserv 服务基于每对话使用。
Intserv 一般会与RSVP 信号传输协议(在预备和配置机制后讨论)联系在一起,但这并不必要。
4.1.4 ATM、ISSLOW 及其它ATM 是一项链路层技术,提供了高质量的通信处理。
ATM 把数据包分解成链路层“信元”,然后使用适合某一ATM 服务的队列服务算法为这些信元列队并提供服务。
ISSLOW 是一种在数据包通过相对低速链接如拨号调制解调器时分解IP 数据包的技术。
音频和数据通过这些链接混合时,音频潜伏期可能很明显,会影响应用程序的可用性。
ISSLOW 可以缩小这些应用程序的音频潜伏期。
另外还有为各种媒体定义的其它通信处理机制,其中比如电缆调制解调器、混合光线同轴电缆(HFC) 设备、P1394 等等。
它们可以使用低层的链路层信号传输机制ATM,例如,使用UNI 信号传输。
4.2 预备和配置机制为有效提供网络QoS,必须在多个网络设备上让通信处理机制的预备和配置生效。
预备和配置机制可归为“自上而下”或“信号传输”两类。
4.2.1 “自上而下”预备在“自上而下”预备中,网络管理系统把通信处理配置“推”到一组网络设备。
一般,队列机制配置在设备接口上。
然后配置分类标准,以确定如何将数据包引向设备的不同队列。
数据包分类的标准可以基于IP 5 元组(源和目标IP 地址和端口及IP 协议),也可以基于数据包报头的DSCP 和802.1p 集合“掩码”。
可能还会使用遮蔽 5 元组。
分类标准可以只规定IP 5 元组的一个子集,例如,“所有源IP 地址为 2.2.2.X 的数据包”,其中X 可取任何值。
如果规定分类标准为DSCP 或802.1p,就必须在分类设备的上游某处做DSCP 或802.1p 标记。
这项工作可以由网络边缘附近的主机或网络设备完成。
后一种情况,负责标记的网络设备会配置成按自己的分类标准标记,一般是 5 元组(或它的某个子集)。
4.2.1.1 “自上而下”预备中的挑战确定适当的分类标准具有很强的挑战性。
网络管理员可能更愿意使用QoS 为特定应用程序或用户通信分配资源,而不是使用数据包报头中的字段,如IP 地址和端口。
“自上而下” 预备系统试图通过在应用程序和IP 端口之间、用户和IP 地址之间建立绑定,以帮助网络管理员。
但不幸的是,它们经常不可靠。
应用程序可能会使用临时的端口,或将多个通信流(需要不同的QoS )溯源于同一端口。
DHCP 可能会导致用户的IP 地址更改。
多用户机器可能为多个用户使用同一IP 地址。
IPSec 加密可能将IP 端口加密,让它们无法作为分类标准。
“自上而下”预备的另一个挑战是对网络中不同节点通信量的预期。
例如,管理系统可能在每个网络设备都配置了低潜伏队列,能够同时处理有特定潜伏期限的10 个IP 电话服务会话。
然后在每台设备上配置分类标准,把IP 电话服务通信引向低潜伏队列。
只要电话服务通信到达每台设备,这项工作就仅限于10 个会话。
但如果建立了第11 个电话服务会话通过其中一台设备,就会拥塞低潜伏队列,因为潜伏超出了配置范围。
结果是,这不仅会危及第11 个会话,还会危及10 个现有的会话。
这是由于“自上而下”预备相对静态的性质,而管理系统不直接了解当前的通信方式。
4.2.2 RSVP 信号传输配置机制RSVP 信号传输可作为“自上而下”预备机制的一个补充。
在这种情况下,主机生成信号传输消息,描述特定对话相关的数据通信。
这些消息沿与数据通信相同的路径在网络中流动。
RSVP 消息为网络提供了以下信息:我是什么--源应用程序和子流(如打印流对时间关键型事务)。
我是谁--身份验证的用户ID。
我要什么--需要的QoS 服务类型。
我要多少--特定应用程序精确量化它们的资源需求。
怎样识别我--识别数据通信的 5 元组分类标准。
哪些网络设备资源会受到相关数据通信的影响。
这些基于主机的信号传输为QoS 管理系统带来很大好处。
基于主机的信号传输一个明显好处是,它在分类信息与用户、应用程序之间提供了健壮的绑定。
除此之外,基于主机的信号传输还提供了“拓扑认知动态准入控制”。
这个功能是解决前面描述的“第11 个电话服务会话”问题的关键。
RSVP 信号传输为数据路径沿途的设备提供了一个有关需要资源的消息。