计算机网络QoS总结(网络服务质量)

更新时间:2023-12-16 01:45:01 阅读量: 教育文库 文档下载

说明:文章内容仅供预览,部分内容可能不全。下载后的文档,内容与下面显示的完全一致。下载之前请确认下面内容是否您想要的,是否完整无缺。

目 录

第一部分 QoS的体系结构

一、 QoS的定义及概述 .................................................................................................. 3

1、 QoS的定义标准 ................................................................................................... 3 2、 QoS控制和管理概述 ........................................................................................... 4 二、综合服务体系结构IntServ ............................................................................................. 5

1、 IntServ概述 .......................................................................................................... 5 2、 IntServ的服务类型 .............................................................................................. 5 3、 QoS控制的实现框架及参数 ............................................................................... 5 4、 资源预留协议RSVP ............................................................................................ 5 5、 IntServ的局限性 .................................................................................................. 6 三、区分服务体系结构DiffServ ........................................................................................... 6

1、 DiffServ概述 ........................................................................................................ 6 2、 DiffServ的体系结构 ............................................................................................ 6 3、 DiffServ的典型服务 ............................................................................................ 7 4、 DiffServ中宽带分配的公平性问题 .................................................................... 7 四、DiffServ 与IntServ相结合的端到端的QoS提供机制 .............................................. 8

1、 DiffServ网络区支持IntServ/RSVP的意义 ....................................................... 8 2、 DiffServ网络区支持端到端IntServ的实现框架 .............................................. 8 3、 支持端到端IntServ的DiffServ网络区资源管理方式 ..................................... 9

第二部分 QoS的实现机制

一、 ATM网络的传输管理与QoS控制 ..................................................................... 10

1、 ATM网络的传输特点 ....................................................................................... 10 2、 ATM网络的传输管理与QoS控制技术 .......................................................... 10 3、 ATM网络的传输管理与QoS控制策略 .......................................................... 10 二、 拥塞控制 ................................................................................................................. 11

1、 拥塞控制简述 ..................................................................................................... 11 2、 TCP流量控制 .................................................................................................... 11 3、 中间节点上的增强机制 ..................................................................................... 12 4、 主动队列管理AQM .......................................................................................... 12 三、 报文分类 ................................................................................................................. 12

1、 报文分类概述 ..................................................................................................... 12 2、 报文分类算法 ..................................................................................................... 13 3、 报文分类器的设计 ............................................................................................. 13 四、 流量整形与监测 ..................................................................................................... 13

1、 漏桶算法 ............................................................................................................. 13 2、 令牌桶算法 ......................................................................................................... 14 3、 滑动窗口协议 ..................................................................................................... 14 五、 队列管理 ................................................................................................................. 15

1、 缓冲管理的作用 ................................................................................................. 15 2、 缓冲管理的目标 ................................................................................................. 15 3、 缓冲管理的控制策略 ......................................................................................... 15

4、 缓冲管理的典型算法 ......................................................................................... 16 六、 分组调度 ................................................................................................................. 16

1、 分组调度概述 ..................................................................................................... 16 2、 分组调度算法的性能指标 ................................................................................. 16 3、 常用的分组调度算法 ......................................................................................... 17 七、 QoS路由 ................................................................................................................ 17

1、 基本路由算法 ..................................................................................................... 17 2、 QoS路由问题 ..................................................................................................... 18 3、 路由选择方法 ..................................................................................................... 18 4、 Internet路由协议 ............................................................................................... 18 5、 组播路由 ............................................................................................................. 19

第三部分 QoS的性能评价与应用扩展

一、 QoS控制的综合性能评价标准 ............................................................................ 20

1、 网络QoS控制策略的性能目标 ........................................................................ 20 2、 综合性能评价标准 ............................................................................................. 20 二、 Web QoS控制 ........................................................................................................ 20

1、 Web QoS概述 .................................................................................................... 20 2、 Web QoS技术 .................................................................................................... 21

第一部分 QoS的体系结构

一、 QoS的定义及概述 1、 QoS的定义标准 (1)、QoS定义

QoS定义如图1.1所示。 QoS定义 组织 ISO 用参数方式定义OSI参考模型中的QoS。参数包括吞吐量、传输延迟、出错率、建立连接延迟、连接失败率、传输失败率、重置率、释放延迟、释放失败概率等。 ITU 从呼叫控制、连接以及数据单元的传输控制三个层次定义宽带ISDN的QoS。 ATM网络的服务可以分为5类。根据服务类型的不同,可以得到不同的QoS参数。根据这些参数来定义ATM网络的QoS。 把QoS定义为一个两维空间:<服务类型>、<参数类型>。服务类型取值范围为[1,254]。其中服务类型1用于指定通用参数,[2,127]表示IETF定义的各种服务,[127,254]保留。<参数类型>取值范围为[1,254]。其中,保留区间[1,127]是用于设定所有服务共享的参数,区间[127,254]是只针对相应的服务的参数。 图1.1 QoS定义 (2)、QoS的分层

用户ATM IETF 用户QoS应用应用QoS系统(通信系统和操作系统)系统QoS设备QoS设备网络QoS网络图1.2 QoS的分层

2、 QoS控制和管理概述 (1)、QoS控制机制

当用户应用与网络系统达成QoS约定之后,网络系统必须通过QoS控制机制来实现QoS的控制。基本的QoS控制机制如图1.3所示。 信息流根据用户提供的信息流特征描述来调节信息流量。信息流整整形机形可基于一个简单的固定分组速率或某种形式的统计分组速率制 来进行。 信息流调度机制 信息流监控机制 信息流控制机制 信息流同步机制 网络系统对每个网络元素(端系统和网络节点)中等待处理的数据分组进行排队,根据相应的QoS要求和级别赋予相应的优先级来调度网络资源。 可以认为是两种监视行为:监视网络系统是否提供所承诺的QoS和监视用户的行为是否符合QoS要求。 包括开环和闭环两种模式。在开环式流控中,资源被分配好后,用户只要按照一致认可的速率发送数据即可;在闭环流控中,发送者需要根据接收者的反馈信息来调整发送速率。 用于控制事件顺序和多媒体交互行为的精确定时。 图1.3 基本的QoS控制机制

(2)、QoS管理机制

为了保护应用得端到端QoS,网络系统只分配资源通常是不够的,还需要经常维护已担保的QoS。已担保的QoS的维护是由QoS管理机制完成的。QoS管理机制如图1.4所示。 QoSQoS监控机制允许系统的每一层跟踪在低层所获得的QoS级。 监控机制 QoS QoS维护机制将被监控的QoS与期望的性能作比较,然后调整维护资源的使用策略以便维护应用的QoS。如果当前网络资源无法满足机制 应用得QoS要求,则QoS的维护将引发QoS的降级。 QoS 当网络系统的低层无法保证应用信息流的QoS并且QoS维护机降级制也无能为力时,高层的QoS降级机制将向用户发送一个QoS指示。机制 用户可以选择可适应的QoS级或者降低服务级来响应该指示。 QoS QoS扩展机制包括QoS过滤机制(当信息流通过通信系统时处扩展理流)和QoS适应机制(只在端系统上处理流)。 机制 图1.4 QoS管理机制 二、综合服务体系结构IntServ 1、 IntServ概述

在服务层次上,IntServ提供三种服务类型:尽力而为型服务、质量保证型服务和可控负载型服务。

在实现层次上,IntServ方案要求所有的路由器在控制路径上处理每个流的信令消息并维护每个流的路径状态和资源预留状态,并且在数据路径上执行基于流的分类、调度和缓冲区管理。

在技术层次上,IntServ依靠资源预留协议RSVP提供QoS协商机制,逐节点地建立或拆除每个数据流的路径状态和资源预留软状态;依靠接纳控制决定链路或网络节点是否有足够的资源满足用户的资源预留请求;依靠传输控制将IP分组分类成不同的传输流并根据每个流的状态对分组的传输实施QoS路由、传输调度等控制。

2、 IntServ的服务类型

IntServ提供三种服务类型:尽力而为型服务、质量保证型服务和可控负载型服务。

IP协议提供的是一种无连接的网络层传输服务,必须辅以其他的高层协议才能更好地实现端到端的可靠传输,这种传统的IP服务易受分组丢失、分组重复、路由器缓冲区队列延迟等的影响。由于缺少必要的QoS控制或保证,传统的IP传输服务被称为尽力而为型服务。

质量保证型服务要求网络中各元素保证用户所要求的最小延迟时间,从而保证会话过程中每个分组确定的延迟界限,只要数据流的传输保持在特定的传输参数范围内,就不会因为队列的溢出而被丢弃。质量保证型服务是一种“硬实时”服务。

可控负载型服务需要指定用户服务指标作为接纳控制处理的关键输入,以限制流的数目,从而保证网络处于非重载的网络模式。可控负载型服务使用户感到网络是在一种很轻的负载或具有很大容量条件下运行,用户感觉不到不可忍耐的延迟。可控负载型服务是一种“软实时”服务。

3、 QoS控制的实现框架及参数

QoS控制的实现框架包括几个部分:用户与用户、用户与网络系统的QoS协商方法与界面;用户QoS要求的接纳控制;QoS参数与服务类型的控制分组的定义与实现;资源预留协议;分组调度与队列管理方法;QoS控制管理与评价标准。

支持质量保证型服务和可控负载型服务的主要QoS控制参数主要有三类:FLOWSPEC、ADSPED和SENDER-TSPEC。对象FLOWSPEC传输信息接收端所要求的流量(TSpec)和调用这些服务的参数(RSpec);对象SENDER-TSPEC描述发送端的数据流量;对象ADSPED用于由网络中的各个网络元素向接收端发送关于延迟、估计带宽、QoS控制服务的参数以及支持的QoS控制服务等信息。

4、 资源预留协议RSVP

RSVP用于点到点通信和点到多点通信的Internet网络环境中多媒体用户对网络资源的预留。

RSVP包括两类最基本的控制分组:PATH(控制)类分组和RESV(预留)类分组。PATH类分组由数据源端发出,RESV则由数据接收端作为PATH路径中各网络元素的资源要求沿PATH分组设置的路径返回发出。

RSVP实现资源预留的过程如下。

①发送数据的源端确定发送数据流所需的带宽、延迟和延迟抖动等指标; ②当网络中的某一路由器接收到PATH分组时,它将PATH分组中的路径状态信息存储起来,该路径状态信息描述了PATH分组的上一级源地址(发来该分组的上一跳路由器地址);

③当接收端收到PATH分组之后,它沿着与PATH分组中获取的源路径相反的方向发送一个RESV分组(包含为数据流进行资源预留所需要描述的流量和性能期望等QoS信息);

④当某一路由器接收到一个RESV分组时,它通过接纳控制来决定是否有足够的资源满足QoS请求。如果有,则进行资源预留,并存储一些与数据流相关的特定信息,然后将RESV分组转发给下一个路由器;如果没有,则路由器拒绝该请求并给接收端一个错误信息。

⑤如果源端接收到RESV分组,则表明数据流的资源预留已经成功,可以开始向接收端发送数据;

⑥当数据流发送完毕,路由器可以释放先前设置的资源预留。

5、 IntServ的局限性

RSVP和IntServ在整个Internet网络应用,存在如下局限性。

①基于流的RSVP资源预留、调度处理以及缓冲区管理,有利于提供QoS保证,但是系统开销过高,对于大型网络存在可扩展性的问题;

②目前,只有少量的主机产生RSVP信令,许多应用都不产生RSVP信令,因此,实现修改应用程序的阻力较大;

③许多应用需要某种形式的QoS,但却无法使用IntServ模型来表达QoS请求;

④必要的策略控制和价格机制(如访问控制、鉴别、记账等),目前尚处于发展阶段,无法付诸应用。

三、区分服务体系结构DiffServ 1、 DiffServ概述

DiffServ的目标在于简单有效,以满足实际应用对可扩展性的要求。DiffServ通过简化网络内部节点的服务机制和服务对象来实现其目标。

具体做法是,边界节点根据用户的流规定和资源预留信息将进入网络的单流分类、整形、聚合为不同的流聚集,这种聚集信息存储在每个IP包头的DS标记域中,称为DSCP(DS标记)。内部节点在调度转发IP包时根据包头的DSCP选择特定质量的调度转发服务,其外特性称为逐点行为(PHB)。网络边界对单流做分类聚合与网络内部对聚集流提供特定质量的调度转发服务,这两个过程通过IP包头内的DSCP协同起来。

DiffServ具有如下特点:简单实现;层次化结构;总统集中控制化策略;利用面向对象的模块化思想与封装思想,增强了灵活性和通用性;不影响路由。

2、 DiffServ的体系结构

DS区域是由一些相连的DS节点构成的集合,它们遵循统一的服务提供策略并实现一致的PHB组。边界节点连通DS区域和非DS区域,其功能为:实现传输的分类和调节机制,保存流的状态信息,根据预定的流规格对进入(或离开)区域的流进行调节,使输入(输出)流符合预先制定的传输调节协议(TCA),并在包头标记DSCP值,分类归入行为聚集。内部节点上实现一组或若干组PHB。连续的DS区域构成DS区,区内支持跨越若干区域的区分服务。

IP包头的区分服务标记域是DS区域的边界节点与内部节点间传递流聚集信息的媒介,是连接边界的传输分类和调节机制与内部PHB的桥梁。DSCP是区分服务标记域中的具体值,用来标识数据包所属的流聚集,供数据包经过DS节点时选择特定的PHB。

边界节点要根据TCA对入域流进行分类和调节,以保证输入(或输出)流满足TCA中规定的规格,并将其归入某个行为聚集、标记相应的DSCP。

逐点行为PHB是一个DS节点调度转发特定流聚集这一行为的外特性描述。PHB可以用调度转发流聚集时的一些流特性参数来描述。多个PHB由于彼此关系密切而必须同时定义,则在实现时构成一个PHB组。若干PHB组有相似构造,而可以同时定义,则称其属于同一PHB组族。

3、 DiffServ的典型服务

奖赏服务PS为用户提供低延迟、低抖动、低丢失率、保证带宽的端到端或网络边界到边界的传输服务。由于延迟、抖动和丢失主要是由于分组在传送路途中排队所致,因此只有在传输路途中几乎不排队才能提供PS服务。也就是说,在任何节点,要保证PS分组的入速率小于出速率。

确保服务AS的目标是:在网络拥塞的情况下仍能保证用户拥有一定量的预约带宽,使用户摆脱在单一尽量做好时无法把握自己实际占有带宽量的无奈状况;着眼于宽带与丢失率,不涉及延迟和抖动。AS服务原则:无论是否拥塞,保证用户占有预约的最低限量的带宽;当网络负载较轻时,用户也可以使用更多的带宽。AS实现思路:分组进入网络时在边界节点给包做标记,预约带宽以内的流量标为IN,超出预约带宽的流量标为OUT;拥塞时包头标记决定分组的丢弃概率,OUT的丢弃概率大于IN,从而在一定程度上保护IN流;中间节点调度转发时保证源头相同的流不乱序,无论其分组是IN还是OUT。

4、 DiffServ中宽带分配的公平性问题

DiffServ中的公平性指的是属于同一流聚集的各微流能享受同等的待遇。这些待遇包括:资源总量充足时各微流能充分享用其预约资源,达到预期性能;有额外资源并允许竞争时各微流能平均分配或按比例分配额外资源;资源总量不够时,各微流能按照预约资源比例获得相应的降级服务。公平性问题的研究目标是,改进服务机制,消除各种流特性差异对公平性的影响。

影响公平性的因素有两个方面:一是各微流特性不同,包括突发程度、是否有末端拥塞机制、流量大小、回路响应时间、连接时间长短等;二是服务实现机制如何,包括传输过程中的各环节(边界分类调节、内部PHB以及是否有反馈控制等)。以下分别讨论不同情况下的流的公平性问题。

适应流的含义是,末端系统实现了拥塞控制机制,能根据网络的拥塞情况自动调节发送速率。相反地,末端没有拥塞控制机制的流称为非适应流。由于适应流能降低速率而非适应流只能保持原来的速率发送,所以非适应流会压制适应

流而获得更高的带宽,导致适应流无法获得公平待遇。解决这一问题的思路是,将适应流和非适应流分配于AF组内的不同丢弃优先级,使得适应流的优先级高于非适应流。

Web流的特点是连接时间短,突发性强。连接时间短使得拥塞控制窗口大部分时间处于慢启动阶段,平均窗口小。小窗口的连接对连续丢包很敏感,此时,连续丢包会大大抑制发送速率。高突发性使得Web流竞争带宽时劣势更大。DiffServ体系中,主要从边界调节与PHB实现两方面来提高Web流的竞争力。在边界节点,调节模块应充分考虑TCP拥塞控制机制的特点,拥塞时尽量在引起拥塞的各连接之间均匀分布丢弃概率,避免个别连接出现连续丢包,特别是保护小窗口连接。PHB的实现一般要消除长期拥塞,但要允许短时间的突发。前者通过丢包抑制,后者通过队列缓冲。

四、DiffServ 与IntServ相结合的端到端的QoS提供机制

DiffServ 和IntServ这两种Internet QoS标准都有各自的长处和局限,并且都不能彻底实现整个网络的端到端QoS。所以,可以寻求一种DiffServ 与IntServ相结合的端到端的QoS提供机制。目前,已经有一种在DiffServ网络区实施端到端IntServ的框架。

1、 DiffServ网络区支持IntServ/RSVP的意义

在IntServ网络中,量化的QoS应用使用显示信令RSVP从网络中请求资源,网络做出接受或者拒绝的响应,这称为“显示接纳控制”。对于只提供聚集传输而无信令机制的DiffServ网络区,其接纳控制是以隐式的方式通过网络元素上的管制参数实现的。显示接纳控制有利于网络资源的优化使用。所以,为DiffServ网络区指定一个支持IntServ的接纳控制代理可以优化资源的使用,提高DiffServ区对于定量QoS应用的服务质量。

在DiffServ网络区采用RSVP接纳控制代理,可以决定资源分配时采用针对特定客户的策略,为特定的客户和应用有效地分配资源。

在DiffServ网络区内部,传输的资源分配基于每个IP分组头部标识的DSCP值,所以必须正确标记DSCP。两种实现机制分别是主机标记和路由器标记。主机标记要求主机如何翻译DSCP,路由器标记要求必须在路由器配置MF分类准则。但是,这样做会增加管理负担。更好的方案是利用RSVP的信令,主机从网络中获取DSCP的翻译值,并且主机也可以将MF分类准则发送给路由器。

2、 DiffServ网络区支持端到端IntServ的实现框架

DiffServ网络区支持端到端IntServ服务的参考网络框架如图1.5所示。

ER1Tx非DiffServ区BR1BR2ER2RxDiffServ区非DiffServ区

图1.5 DiffServ网络区支持端到端IntServ服务的参考网络框架

RSVP消息在发送发主机Tx和接收方主机Rx之间端到端地传播以支持DiffServ区外部的RSVP预留。边界路由器ER1,ER2和BR1,BR2的功能依赖于该框架的特定实现。当DiffServ区不识别RSVP信令时,ER1,ER2作为DiffServ区的接纳控制代理,BR1,BR2只作为纯粹的DiffServ路由器。当DiffServ区识别RSVP信令时,ER1,ER2可根据当地的资源情况和客户定义的策略实施接纳控制,BR1,BR2作为DiffServ区的接纳控制代理。

3、 支持端到端IntServ的DiffServ网络区资源管理方式 (1)、静态资源管理方案

在静态资源管理方案中,DiffServ网络区的客户和网络所有者之间协商建立一个静态的契约——服务层描述SLS,保证在每个标准的DiffServ级别上向用户提供应有的传输能力。 (2)、动态资源管理方案

聚集RSVP方案:在DiffServ网络区的边界之间为聚集流预留资源,不对DiffServ区外节点的、面向单个流的RSVP请求进行接纳控制。聚集预留的量是可以动态调整的。

面向单个流的RSVP方案:DiffServ网络区内的路由器对发起于DiffServ区之外的IntServ节点的、面向单个流的标准RSVP信令请求进行相应。

第二部分 QoS的实现机制

一、 ATM网络的传输管理与QoS控制 1、 ATM网络的传输特点

在ATM网络中,有四种不同类型的传输方式:恒定位速率(CBR)、可变位速率(VBR)、可以位速率(ABR)和未指定位速率(UBR)。

不同的传输类型由ATM网络在适配层上提供不同的适配服务。ATM定义了AAL1,AAL2,AAL3/4和AAL5四种不同的适配层类型,根据适配层负载数据传输类型的不同和是否面向连接,将适配层提供的服务分为四类。

A类——CBR服务:对应于AAL1,它支持面向连接的服务,用于传输率固定、对信元延迟和丢失都敏感的应用(具有固定传输速率的声音和图像信号)。B类——VBR服务:对应于AAL2,它支持面向连接服务,用于传输率固定、同时对延迟敏感的应用(经压缩分组的声音和图像信号)。C类——面向连接的数据服务:对应于AAL3/4,AAL5也支持这类服务,它支持面向连接服务,用于传输率可变、但对延迟不敏感的突发性业务和普通数据传输业务的应用(面向连接的文件传输和E-mail),它采用ABR传输方式。D类——无连接数据服务AAL3/4和AAL5都可以支持这类服务,它采用UBR传输方式。

2、 ATM网络的传输管理与QoS控制技术 (1)、接纳控制

ATM网络的各个用户在入网前需要进行接纳控制。ATM网在用户入网时需要用户首先把自己的传输特性和参数以及它所要求的QoS告知网络,网络再基于用户的传输性能要求和网络现存的资源情况,来决定是否允许建立一个新的连接。 (2)、拥塞控制

拥塞控制包括“开环预防控制”和“闭环反馈控制”两种方法。开环预防控制中常用的是漏斗算法和流量整形算法;闭环反馈控制中主要有基于信用的流控和基于速率的流控两类方案。 (3)、信元丢弃控制

信元丢弃控制方案主要有三种:分别选道方案、推出方案和部分缓冲共享方案。

分别选道方案为每种级别的信元使用一个不同的缓冲器,这种方案实现简单,但在目的节点信元需要重新排序,破坏了ATM面向连接的特性,因此很少使用。

推出方案使用同一个缓冲器存储所有级别的信元。当缓冲器满时,高优先级的信元将推出低优先级的信元,并将之丢弃。

部分缓冲共享方案也使用一个缓冲器来存储所有级别的信元,但它控制的是基于缓冲的阈值。当缓冲容量超过阈值时,仅高优先级的信元可以进入缓冲器,而新来的低优先级的信元则被丢弃。当缓冲器满时,丢弃新来的所有信元。

3、 ATM网络的传输管理与QoS控制策略 (1)、资源管理策略

资源管理分为资源的分配和资源不足时的阻挡或丢弃策略。资源分配策略

中基本上包括三种:完全共享、完全分配和部分共享。

完全共享策略:总体资源没有限制地在所有的竞争用户之间共享,只要还有充分的资源,任何一个新用户的资源要求都会接受。当没有充分资源时,一个新用户的资源要求被阻挡。

完全分配策略:资源在所有的竞争用户之间永久性地进行分配,即给每个用户分配固定数量的资源。

部分共享策略:将一部分资源分配给用户,剩余的资源供用户竞争共享。 几种丢弃策略:将新用户的申请丢弃;从以占有资源的用户申请队列中挑出具有最小优先级的用户申请丢弃,并将资源分配给新用户申请;为了保证资源分配的公平性,从已占有资源最多的用户申请队列中挑出一个用户申请进行丢弃,并将资源分配给新用户申请;为了保证系统性能要求,从最能满足丢弃要求的已占有资源的用户申请队列中挑出一个用户申请进行丢弃,并将资源分配给新用户申请。 (2)、信元的存储和调度策略

先入先出的调度策略:使用相同的服务规则对待所有的信元,仅按信元到达的顺序进行服务和输出。

静态优先级的调度策略:给每个信元分配相应的优先级,信元到达时按照优先级排队,优先级高的信元总是优先接受服务和输出。

动态优先级的调度策略:信元优先级随时间而动态变化,可以用给定的阈值来改善低优先级信元传输的性能。

最早截止优先的调度策略:要求在信元进入网络前给信元分配传输时间期限,具有最早期限但又不超过时间期限的信元被首先传输。

信元丢弃控制和实时调度的综合策略:这个方案同样要求在信元进入网络前给信元分配传输时间期限,但为了提高网络吞吐量,在信元进入到等待队列时,将信元尽量放在靠近时间期限位置。当等待队列头部到时间期限位置已满时,从这些位置中挑选出一个具有最小丢失优先级的信元,将其丢弃,并将新的具有较高丢失优先级的信元放入等待队列。

公平调度策略:主要有处理器共享方案和加权公平排队方案。处理器共享方案是以相同速率服务所有的非空队列。加权公平排队方案对每个队列赋予一个权值,权值高的队列将会得到更快的服务速率。

二、 拥塞控制 1、 拥塞控制简述

增加网络资源和降低用户需求都可以解决拥塞问题。降低用户需求主要表现在三个方面:拒绝服务、降低服务质量和调度。

拒绝服务:在拥塞发生时,拒绝接纳新的用户请求。此方法多用于面向连接的网络。降低服务质量:所有用户在拥塞时降低其发送速率。调度:合理安排用户对网络资源的使用,保证总需求永远小于网络可用资源。如轮询、加入优先级、资源预留等。

2、 TCP流量控制

TCP使用滑窗机制来进行流量控制。即接收方通过某种策略来决定允许发送方传送多少数据。

在TCP流量控制过程中,重传策略和确认策略必不可少。重传策略包括重

传队头报文段、成批重传和单个重传三种具体策略。确认策略包括立即策略和积累策略两种。

自同步机制和“加性增加倍乘减小”一起构成了TCP拥塞控制的基础。自同步机制中,源端通过ACK的到达速率来调整数据发送速率,即ACK信号起到了同步的作用。加性增加倍乘减小窗口调节策略是 TCP流量控制的一个基本机制。

重发超时RTO管理对TCP拥塞控制非常重要,所以必须尽可能准确地估计往返时间的大小。处理RTT估计技术以外,还有三种增加估计精度的技术,它们是RTT方差估计、指数RTO退避和Karn算法。

TCP使用慢启动算法确定发送窗口大小。慢启动算法在初始化连接时工作得很有效,但是在出现拥塞后,必须配合拥塞避免机制才能更好地工作。拥塞避免机制在探测到网络发送拥塞后,改变拥塞窗口的调节策略,使其由指数增加变为线性增长。检测到拥塞后,其操作步骤为:将慢启动阈值设为当前拥塞窗口的一半;启动慢启动过程,直到慢启动阈值与拥塞窗口值相同;最后,当拥塞窗口值比慢启动阈值大时,每经过一个往返时间对拥塞窗口值加1。

3、 中间节点上的增强机制

Internet具有与生俱来的分散特性,所以,可以通过增强中间节点的功能来实现端到端无法实现的技术目标。中间节点的功能主要有两种:调度和队列管理。

调度规则决定分组接受服务的次序;队列管理通过选择何时丢弃何种业务来控制队列的长度。我们可以通过改进调度算法和队列管理策略可以增强中间节点的功能。

4、 主动队列管理AQM

早期随机丢弃RED是早期惟一能实现AQM技术目标的算法。RED为队列管理增添了两种新机制:首先,不是等队列全满后再丢弃到来的分组,而是利用概率判定机制事先丢掉部分分组来预防可能发生的拥塞;其次,通过平均队列即非即时队列调整分组丢弃概率,由此尽可能的吸收短时间的突发流量。

RED变种算法有很多。WRED通过为不同的业务设定不同的最大丢弃概率来提供不同的服务质量。FRED解决了RED在多种类型流共存的网络中存在的不公平问题,防止了非响应性流对带宽资源的贪婪侵占。Blanced RED的目的在于解决RED公平性问题,主要处理响应性业务流和非响应性业务流之间的带宽均衡分配问题。RED变种算法还有很多,不逐一作介绍。

AQM新策略有很多,如BLUE、PI控制器、REM、GKVQ、AVQ、SMVS和FLC等。

三、 报文分类 1、 报文分类概述

报文分类是指Internet 路由器基于一个或多个报文头的字段,把报文分类到相应的流/服务类地过程。

从OSI参考模型的角度可以分析出报文分类的可用字段。第2层的报文分类可用字段有源MAC地址和目的MAC地址。从IPv4报文的格式,可以看出,第3层的报文分类可用字段有源IP地址、目的IP地址、传输层协议类型和服务类型。IPv6报文格式中,报文分类的可以字段有版本号、优先级、流量标识、

源地址和目的地址。从TCP报文格式可以看出,第4层的报文分类的可以字段有源端口和目的端口。

报文分类规则的冲突是指两个或者多个规则重叠,从而导致一个模糊分类的问题。最基本地规则冲突问题的解决方案是给每个规则都赋予一个优先级,将分类规则根据优先级从高到低排列,当一个报文同时匹配多个规则时,取第一个匹配的分类规则即可,从而减少分类器规模。

2、 报文分类算法

线性查找算法是一个按优先级降序排列的分类规则链表,一个报文顺序地与每一个规则进行比较,直到找到第一个匹配的规则,在规则降序排列后,第一个匹配的规则就是最佳匹配规则。

交叉组合算法:报文分类的主要思想是,通过组合在每个维的单独的范围查找结果来对进入的报文进行分类。其最佳匹配规则被预先计算出来并存储在组合交叉表中。交叉组合算法是一个报文分类的静态解决方案。当增加一个新的分类规则时,需要重新计算组合交叉表。

Hierarchical tries算法:建立Hierarchical tries,每个报文可以在Hierarchical tries上准确找到其最佳匹配规则。

Bitmap-Intersection算法:每一个集合被编码成一个N位的位映射,1个位又对应N个规则。匹配的规则集合就是那些在位映射中对应位置为1的规则集合。对每个维单独地进行范围查找,得到一个集合。将所有集合相交得到匹配报文的规则集,这只需要进行简单的布尔与操作就能得到结果。从得到的集合中可以找出最佳匹配规则。

报文分类算法还有Tuple space serch算法、Modular算法、RFC算法等。 报文分类算法的评价标准主要有:时间复杂度,空间复杂度,跟新复杂度,扩展性,最坏情况下的性能分析,规则表达的灵活性,预处理时间和算法执行的灵活性等。

3、 报文分类器的设计 (1)、报文分类器的特性

报文分类器具有以下特性:分类器不包含大量的规则;传输层协议字段限制在较小的范围内;传输层字段有各种说明;在分类器中,8%的规则时冗余的;在分类器中,许多不同的规则共享一系列的字段说明;接近一半报文的字节数是40~44字节。 (2)、报文分类器的设计原则

报文分类器有四个主要的设计原则:线速转发原则(针对进入的最小分组)、折中原则(选取各种要求的折中)、满足实时需要原则和遵循算法的简单性原则。 (3)高速可行的报文分类算法设计思路

设计高速可行的报文分类算法,可以从下面几个方面进行考虑:充分利用分类规则的特性;排序索引思想;通过增加预处理时间来增加报文分类速度;提高内存的访问速度;适当增加内存空间;充分利用算法的硬件平台特性。

四、 流量整形与监测 1、 漏桶算法

漏桶算法是将流量整形操作形象地比喻成一个底部带有一个小孔的水桶,

无论流入桶中的水速有多大,从底部小孔流出的水速是恒定的。漏桶相当于一个分组队列,当队列满时,分组被丢弃,队列按规定的速率向网络发送分组。

漏桶算法的缺点是,无论数据量多大,总以恒定的速率发送数据,且当漏桶满时,数据丢失。

2、 令牌桶算法

令牌桶算法中,令牌桶中装的是令牌而不是分组,每隔一段时间,就会产生一个令牌,并将令牌放入令牌桶中。令牌桶满后,新产生的令牌将会被丢弃。分组在桶外缓冲区中排队,桶中有多少个令牌就可以发送相应于令牌个数的分组。当桶空时,停止发送数据,新来的分组要等待生成新令牌或被丢弃。由于突发性的输入流往往导致拥塞的发生,因此获得令牌的分组将被快速地输出,使突发性输入流得以迅速地疏导。

令牌桶算法的优点:当主机空闲时,可积累令牌,积累令牌的数量由令牌桶容量确定,令牌桶算法有利于发送突发性数据。当令牌桶满时,丢弃的是令牌而不是数据。

3、 滑动窗口协议

滑动窗口协议在数据链路层和传输层都可以用来进行流量控制。它们的区别在于:在数据链路层,流量控制是作用在单条链路上的;在传输层,流量控制是端到端执行的。 (1)、数据链路层的滑动窗口协议

发送窗口0123456701234567方向当发送一帧时这个边界就向右移动接收窗口01234567方向当接收到确认帧后,这个边界向右移动01234567方向当接收一帧时这个边界就向右移动方向当发送一个ACK帧时,这个边界向右移动

图 1.6 发送方和接收方滑动窗口

图1.6显示了一个大小为7的发送方和接收方滑动窗口。在发送方:当数据帧发送出去时,发送方滑动窗口从左边开始收缩;当收到确认时,发送方滑动窗口向右扩展。在接收方:当接收到数据帧时,接收方滑动窗口从左边开始收缩;当发送确认时,接收方滑动窗口向右扩展。 (2)传输层的滑动窗口协议

传输层的滑动窗口如图1.7所示。

窗口的大小发送并被确认发送但没有确认可以发送不能发送123456789101112131415161718192021向右或向左移动来保持窗口发送数据时的大小向右移动收到确认时向右移动

图 1.7 传输层的滑动窗口

传输层的滑动窗口有四个特点:发送方不必发送满这个窗口的数据;一个确认可以基于确认数据段的序列号来扩展窗口的大小;窗口的大小可以由接收方来递增或递减;接收方可以随时发送确认。

五、 队列管理

1、 缓冲管理的作用

缓冲管理即是对网络传输节点中队列缓冲资源的管理。缓冲管理在网络传输控制中发挥着相当大的作用,是网络QoS控制的核心技术之一,也是实现网络拥塞控制的重要手段。

网络QoS控制就是对网络资源的合理分配和使用。而缓冲管理和多个队列的分组调度可以实现带宽资源的合理分配。

在早期的拥塞控制机制中,由网络用户实现端到端的拥塞控制。随着显示拥塞通告ECN和主动队列管理AQM思想的出现,在网络传输节点也引入了拥塞控制。

2、 缓冲管理的目标

队列缓冲提高了系统的吞吐量,但是也增大了分组排队的延迟,缓冲空间容量增大时延迟更为严重。所以,缓冲管理要设置合适的队列缓冲容量,使得系统吞吐量和分组排队延迟之间的矛盾得到平衡。

当缓冲管理机制的缓冲分配和分组调度机制的带宽分配不一致时,会导致缓冲资源的利用率低。所以,瞬时队列长度应该和给其分配的系统带宽成比例,以获得最大效率的缓冲资源利用。

缓冲管理方案是一种接纳控制策略,一般情况下,资源总相对有限,无法满足所有用户的需求。所以,缓冲管理应该尽可能地保障用户的公平性。

缓冲管理方案应该与拥塞控制策略相互配合,避免或减轻网络拥塞,提高网络系统资源利用率。

3、 缓冲管理的控制策略 (1)、资源管理策略

资源管理策略主要有完全划分策略、完全共享策略和部分共享策略三种。完全划分策略把系统中所有的队列缓冲资源静态划分给不同的服务类别,不同服

务类别的数据分组只能使用预先分配的队列缓冲资源。完全划分策略会带来很大的缓冲资源闲置。完全共享策略允许所有的数据流使用系统中所有的缓冲资源。完全共享策略会带来很大的缓冲资源利用率,但是其无法为用户应用提供服务质量支持,同时也无法提供公平性保障。部分共享策略介于前两种中,既允许系统中一部分缓冲资源被所有服务类别的分组共享,又为高优先级服务类别的分组预留一部分资源以满足其突发需求。 (2)、分组丢弃策略

分组丢弃策略主要有:尾部丢弃和头部丢弃、阈值丢弃、随机丢弃、非参数控制丢弃和选择性丢弃。

尾部丢弃是在缓冲区满时丢弃新到来的分组,相反,头部丢弃是在缓冲区满时丢弃队列最前端的分组以接纳新到来的分组。阈值丢弃是当队列长度超过设定的阈值时,随之而来的分组将被丢弃。阈值丢弃使得队列的长度不稳定。基于概率的随机丢弃避免将同一数据流中的分组丢弃,一定程度上保障了用户应用的公平性。非参数控制丢弃利用模糊控制的平滑过渡特性平滑分组丢弃行为,同时保持队列长度的稳定性。

4、 缓冲管理的典型算法

缓冲管理的典型算法主要有:早期随机丢弃RED算法及其改进算法、自适应虚拟队列AVQ算法、动态阈值算法、成比例丢失率控制算法、缓冲管理和调度联合算法和动态部分缓冲共享算法。

六、 分组调度 1、 分组调度概述

分组到达某个网络节点时,经过存储,再转发到下一节点。根据分组在系统中存储的位置,可以有三种分组排队策略。这三种策略分别是输出排队、输入排队和输入输出排队。输出排队是指分组到达输入接口时,被立即经过交换机转移到相应地输出接口进行缓存。输入排队是指把分组首先存储在输入接口中,交换机构只需以线速实现交换即可。输入输出排队是将以上两种方式结合起来形成的排队策略。

分组调度规定了分组从每个队列离开的瞬时特性,通过流隔离,使得不同业务类的分组得到不同等级的服务。分组调度在带宽分配、时延控制和相对优先级控制三个方面起到很大作用。调度器可以为特定的业务类提供最低的带宽保证或最高的带宽上限,使得带宽分配更加合理。根据不同业务对时延的要求不同,调度器可以将对时延要求严格的业务优先转发,将对时延要求宽松的业务延后转发,实现时延控制。调度器可以使得重要的分组得到最好的服务,次要分组得到较差的服务,即可以对业务相对优先级控制。

2、 分组调度算法的性能指标

分组调度算法的性能指标主要有三个:有效性、公平性和复杂性。

分组调度算法应该能够实现预期的控制目标,使得各个数据流能够得到事先约定的等级的服务。有效性包括资源利用率和时延特性等。

可以链路的带宽必须以公平的方式分配给共享此链路的各个业务流,而且必须隔离数据流,让不同的数据流只享用自己可以享用的带宽。

在高速网络中,分组调度算法必须能在很短的时间内完成分组的调度转发。

这要求分组调度算法比较简单,易于实现。然而,一般情况下,算法越有效,其考虑的信息越多,其复杂性越高。所以,分组调度算法通常在简单性和有效性之间进行折中。

3、 常用的分组调度算法

常用的分组调度算法可以归为以下几类:基于静态优先级的算法;基于轮询的算法;基于GPS模型的算法;基于时延的算法;分层链路共享算法;核心无状态算法;基于服务曲线的算法;比例区分算法;结合缓冲管理算法。

基于静态优先级的算法主要有PQ和QLT。PQ算法给每一个队列赋予不同的优先级,每次需要调度时,具有最高级别的非空队列中的分组优先被选择服务。PQ算法中优先级是静态配置的,不能动态适应变化的网络要求。QLT算法给每个队列设置一个阈值。当具有最高优先级的队列长度大于其阈值时,该队列头部的分组优先被服务。当具有最高优先级的队列长度小于其阈值时,不再服务该队列,而是检查具有次高优先级的队列,如此类推。通过设置合理的阈值,QLT算法在保证优先级关系的基础上,提高了公平性。

基于轮询的算法有RR和WRR。传统的轮询RR算法只是简单地对所有队列进行轮询调度,一次调度一个分组,使得不同队列在某种程度上平等地使用带宽资源。WRR对每个队列赋予不同的权值,通过改变权值,改变队列的服务速率,满足不同优先级业务的需求。

基于时延的算法有很多,它们是直接以排队时间作为参数,并以提供时延保证为目的。

分层链路共享把不同类型的业务流划分成不同级别的类,并同时考虑业务的实时性和链路共享的需求,按照不同层次进行分组调度,从而提供了在分层共享树内进行不同等级的共享链路带宽资源的方法。

比例区分服务是一种相对区分服务。在相对区分服务中,数据流被组合成服务类,这些服务类按照其分组转发的服务质量要求进行排序,以决定其排队延迟、分组丢失率等转发行为。网络不进行资源预留,用户或应用程序选择最符合它们质量要求和价格限制地服务类。在比例区分服务模型中,任意两个数据类在每一跳中获得的服务满足确定的比例。

七、 QoS路由

路由包含两个基本功能:一是搜集网络的状态信息并不断更新;二是根据所搜集的信息计算可行路径。QoS路由的基本任务是为一次连接寻找一条有足够资源、能满足QoS要求的可行路径。 1、 基本路由算法

Dijkstra最短路径算法也称D算法。D算法为集中式算法,需要完整的网络拓扑和链路权值,并由此计算出一个指定源节点到网络中所有其他节点的最短路径。网络图中,每一个节点都有一个标记,标出了从源节点开始沿着当前已知的最佳路径到达该节点的距离。初始时,所有的路径都不知道,所以,所有的节点都被标记为无限远。随着算法的不断进行,陆续有一些路径被找到,于是节点的标记有可能会被变化,以反映出更好的路径。每个标记可能是暂时的,也可能是永久的。当已经发现一个标记代表了从源节点到该节点的最短可能路径的时候,该标记变成永久的,以后不再改变。D算法总是不断检查与现已知点相邻的点到源节点的最小距离并修改标记,直至整个网络中的点都被检查完毕。

在距离路由矢量算法中,每个路由器维护一张表(即一个矢量),表中列出了当前已知的到每一个目标的最佳距离,以及所使用的线路。通过在邻居之间相互交换信息,路由器不断更新它们内部的表。

链路状态路由算法将每个路由器完成的任务分5个步骤完成:第一步,发现它的邻居节点,并知道其网络地址;第二步,测量到各邻居节点的延迟或开销;第三步,构造一个分组,分组中包含所有它刚刚知道的信息;第四步,将这个分组发送给所有其他的路由器;第五步,计算出到每一个其他路由器的最短路径。

2、 QoS路由问题

QoS路由选择有两个基本目标:①所选择的路径必须是满足QoS约束的可行路径;②所选择的路径必须尽量有效地使用网络资源并使网络资源利用率最大。

QoS路由问题一般由三个部分组成:①获得满足应用QoS请求所必须的QoS路由计算信息;②建立一条满足QoS请求的路径;③维护已建立的路由。对于第一个问题,可以扩充现有的链路状态协议(如OSPF),目前的OSPF协议将QoS编码位扩展为5位,分别指示路由度量指标为费用代价、可靠性、带宽和时延,全“0”表示无特殊要求。对于第二个问题,常用的路由算法都使用D算法,以带宽、传输时延和跳数为主要度量准则。对于第三个问题,目前尚无较好的办法,一般使用RSVP充当QoS路由请求和路由维护的信令协议。

3、 路由选择方法

路由选择有两种方法:集中式和分布式。

集中式路由选择方法假设存在一个全局网络管理器来维护所有已建立信道和网络拓扑的信息,因此能够对每个实时信道请求选择一个合适的路由。在集中式方法中,每个实时信道请求必须经过网络管理器的获准。

分布式路由选择方法主要分为两大类:洪泛法和优选邻居法。基于洪泛的算法属于静态路由算法,其思想是将收到的所有包,向除了该包到来的线路以外的所有输出线路发送。该算法以牺牲平均呼叫接收率为代价,在平均呼叫建立时间和平均路由距离方面具有优势。优选邻居路由方法基本上是使用基于返回的路由选择方法。当节点v收到一个呼叫建立分组时,它将该分组发送至最优选择的链路。如果链路的另一端送回一个拒绝分组,则节点v将该分组发送至次最优选择的链路,如此下去,直至呼叫分组到达终点为止,才表明该呼叫已成功建立链接。如果最后仍未能建立链接,则节点v向它收到呼叫建立分组的那个节点发送一个拒绝分组。

4、 Internet路由协议

根据Internet具有的结构特征,可以按照路由协议的作用范围将Internet路由协议分为内部网关协议和外部网关协议。

内部网关协议是由于自治系统内部的协议,其主要包括RIP、OSPF、IGRP、IS-IS等。开放最短路径优先协议OSPF是目前在Internet上最广泛使用的核心路由协议。OSPF将一个网络或一系列相邻的网络分为编号区域,一个区域的网络拓扑结构对于自治系统的其他部分是不可见的。OSPF的工作方式是,将实际的网络、路由器和线路抽象到一个有向图中,并且给图中的每条弧分配一个开销值,然后根据这些权值计算出最短路径。

外部网关协议或边界网关协议(BGP)是由于自治系统之间的协议。每一个BGP路由器保存它到每个目标的开销值和确切路径,并定期的把这些消息告诉它的邻居。每一个BGP路由器会根据它所有邻居传来的信息来找出一条到目标主机的最短路径。

5、 组播路由

QoS组播路由技术是网络多媒体信息传输的关键技术之一。组播路由通常采用树型结构,所以,组播路由算法可以保证信息到不同信宿的并行传输,并保证数据复制最少,减少了冗余信息的传递和降低了资源消耗。

组播路由算法中主要使用了两种分布树:最短路径树和共享树。最短路径树的方式针对于每个组播组的源来处理生成树。在共享树方式中,所有的包沿着分布树发送到组播组而不考虑发送的源,这种方式减少了处理时间,但是导致了较大的端到端延时。

组播路由协议用于发现组播组和建立每个组播组的分布树。组播路由协议有两种方式:密集方式路由和稀疏方式路由。如果网络中几乎所有的路由器都为每个组播组分发组播信息,则使用密集方式。密集方式为了维护分布树,每隔一段时间洪泛网络组播信息。稀疏方式路由协议用于每个组播只有很少的路由器,组播组成员被广泛地分散,如Internet上的组播。稀疏方式假设网络带宽有限,因而不使用洪泛方式,开始建立一个空的分布树,只有当成员请求加入组播组时,才向分布树添加分支。

第三部分 QoS的性能评价与应用扩展

一、 QoS控制的综合性能评价标准 1、 网络QoS控制策略的性能目标

网络QoS控制性能研究中常考虑的主要目标有:网络的整体效率性能、服务质量要求和公平性。这三个目标都可以通过网络的一些性能参数来体现和衡量。网络的整体效率性能可以用网络的吞吐率T来代表,要求有高的网络性能也就是希望网络中节点的吞吐率尽可能地高。应用服务的QoS要求主要包括带宽、延迟、丢失率和延迟抖动等,其中延迟D和丢失率L是两个常用的参数。公平性F要求比较复杂,很难用固定的参数进行表达。

2、 综合性能评价标准 (1)、综合性能评价标准1:吞吐率T+延迟D

网络中两个基本参数——吞吐率和延迟,可以作为研究分组调度策略有效性评价标准的一个很好的出发点。一个QoS控制策略增加吞吐量的做法是让尽可能多的分组通过网络,让底层的驱动达到较高的利用率,但在这种情况下,随着网络分组的增加,每个路由器等待队列的长度也会增加,而队列变长也就意味着等待时延的增加。所以,吞吐率T和延迟D可以作为网络性能评价标准的两个参数。 (2)、综合性能评价标准2:QoS要求+公平性F

在相对区分服务中,网络中的流被分成一个个服务类,不同的服务类可以得到不同的服务质量。这种情况下,网络不能完全保证应用程序或使用者的服务质量,但网络能够保证高级别的类享有比低级别的类更好的服务。所以QoS要求和公平性F可以作为综合性能评价标准的参数。

由于实时应用和多媒体应用主要QoS要求在于延迟D和丢失率L,所以QoS要求和公平性F作为综合性能评价标准的参数时可以分为两大类。第一类是延迟D和公平性F,第二类是丢失率L和公平性F。 (3)、综合性能评价标准3

评价网络QoS控制系统的性能,包含有效性和公平性两个方面。有效性的评价有两类,分别是针对流的评价和针对类的集合的评价。公平性的评价主要从两个层次来进行,分别是流之间的公平性和类之间的公平性。

二、 Web QoS控制 1、 Web QoS概述

Web QoS是一种面向Web客户和HTTP请求以提供性能保证和服务区分的技术。Web流量在Internet总流量中所占比例超过了60%,是Internet信息传输的主流。Web流量中,HTTP请求呈现出指数增长,使得Internet上很多热门站点经常面临服务器超载问题。由于服务器超载问题,Web服务器已经在某种程度上成为实现端到端QoS的瓶颈。因此,在Web服务器系统实现有效的QoS控制,为用户提供满意的性能保证,已经成为一个急需解决的问题。

当前Web QoS技术主要有:Web服务器应用软件的QoS控制技术、操作系统的Web QoS控制技术、中间件的Web QoS控制技术、Web 服务器集群系统中的QoS控制技术、Web QoS控制策略和算法的性能分析与评价技术等。

2、 Web QoS技术 (1)、Web服务器应用软件的QoS控制机制

通过改进Web服务器应用软件来提供Web QoS支持是一种典型的Web QoS控制技术。改善Web QoS的技术主要有服务器的优先调度、选择性资源分配、有效的接纳控制机制、Web内容自适应和基于控制理论的方法等。

Web服务器中的优先化调度可以有效地改善高优先级请求的延迟性能,但是对低优先级请求的影响却很小。服务器的优先调度可以改善Web QoS。

当Web服务器不能为所有的请求提供满意的服务时,选择性资源分配可以实现为更加重要的请求提供QoS保证。选择性资源分配是一项很好的技术。

在过载的情况下,有效的接纳控制机制能够保证丢弃速率和任务的延迟界线。所以,有效的接纳控制机制也可以改善Web QoS。

Web内容自适应是一种比接纳控制更加灵活的机制,它可以在服务器重载的情况下自适应地提供连续的内容降级服务而不是简单地拒绝请求,从而能更好地为用户提供Web QoS。

使用控制理论的方法解决Web QoS控制的问题是一个新的思路。目前,主要是使用基于控制理论的方法来设计反馈控制回路,以满足Web服务器的性能要求。 (2)、操作系统的Web QoS控制机制

修改Web服务器应用软件在一定程度上为客户或请求提供Web QoS支持,但是它仅是在服务器应用层执行服务区分,对实现Web QoS控制仍具有一定局限性。实际上,一个HTTP请求的很重要的一部分处理都是在操作系统的内核中完成的。所以,操作系统内核机制对于支持服务区分和实现Web QoS非常重要。

传统的操作系统控制机制将每个进程或进程中的线程既作为调度的实体,又作为资源分配和管理的单元。在这种以进程为中心的操作系统中,进程是组成一个服务类的基本单元。在需要进行服务区分的Web服务器中,当多个进程与一个单一的服务类相关联时,对分配给多个进程的资源进行控制是相当困难的,所以很难对该服务类实现期望的资源分配。

为了对传统的操作系统作改进,提出了资源容器的概念,将资源分配和管理的单元与进程分离开来,实现了操作系统中精细粒度的资源管理。资源容器可以用来计算和控制不同请求类别所消耗的操作系统资源,改进后的操作系统的控制机制能够在Web服务器中提供基于类别的区分的性能,从而在Web服务器中有效地支持服务区分和Web QoS。 (3)、中间件的Web QoS控制机制

中间件在操作系统、网络和数据库之上,在应用软件的下层,总的作用是为处于自己上层的应用软件提供运行与开发环境,帮助用户灵活、高效地开发和集成复杂的应用软件。目前,中间件技术已经用来为Web服务器提供QoS支持。基于中间件的Web QoS控制机制不需要对Web服务器应用软件或者操作系统进行修改就可以实现对Web QoS的支持。

中间件层的主要组件是接收器和QoS库。中间件层通过接收器与服务器的TCP/IP堆栈对接,通过QoS库与Web服务器对接。 (4)、Web 服务器集群系统中的QoS控制机制

目前,集群技术已经成为解决服务器超载和提供高性能服务器的一种有效手段。Web 服务器集群系统是由分布在局域网和广域网上的多台Web服务器主机相互联结而成的一种服务体系结构采用负载均衡策略将到达的请求分配给集

群中的某台服务器进行服务。

Web 服务器集群需要设计和实现有效的请求分配机制和负载均衡策略,将客户的请求分配到集群中最适宜的Web 服务器节点进行处理,从而获取可得到的最佳Web QoS性能,并且通过负载均衡策略,是集群中的各台服务器的负载处于均衡状态。

常见的Web 服务器集群的体系结构主要有镜像站点、基于DNS的集群和基于请求分配器的集群。

本文来源:https://www.bwwdw.com/article/cpi5.html

Top