第七章保证服务质量的方法引言•影响QOS的特性信息率、分组延迟、分组丢失•队列–上述特性与队列有关–交换机输入、输出接口都有队列–保障了网络的高效,引入了传输的不确定性•QOS的方法取得队列性能的折中应用与QOS•三种应用的流量–信息率相对可预测–对延迟敏感–对分组的损毁和丢失敏感应用与QOS•信息率相对可预测•流数据时可预测的(语音、视频)DataTPacketcontainingBbitsConstantBitRate=B/T(bps)tPacketscontainingfromM1toM2bitsT1:C=PIRT2:C=0T3:C=PIRT:C=ClongaverageDatatFig.7.2.Burstytraffic应用与QOS•对延迟敏感,按敏感度排列–异步应用,例如电子邮件–交互应用,远程文本编辑,会话–等时应用,有一个对延时敏感的阈值,例如语音回放,超过100~150ms就必修丢弃分组–对延时过分敏感,如实时控制应用与QOS•对分组的损毁和丢失敏感–出数字母和数字的应用,压缩的流媒体ATM的流量类别•A多媒体流恒定比特率,对延迟敏感,面向连接•B压缩多媒提留可变比特率,对延迟敏感,面向连接•C使用连接协议的计算机数据可变比特率,弹性流量,面向连接•D使用无连接协议的计算机数据可变比特率,弹性流量,无连接•X:其他队列分析•M/M/1模型l=1/Tm=1/bQueuelServerRequestflow队列分析•M/M/1模型到达率:λ=1/TT两个请求到达之间的平均时间间隔的平局偏差也等于T,标准偏差为T/T=1时间间隔的分布符合泊松分布λtF(t)=λe–λtFig.7.4.Distributiondensityoftheinputflow到达间隔的分布,是突发流队列分析•M/M/1模型等待的平均时间W=ρ*b(1-ρ)其中b单个请求的服务时间μ=1/b服务率ρ=λ/μ负载率10,5WWFig.7.5.Dependenceoftheaveragerequestwaitingtimeon队列分析•M/M/1模型负载率ρ接近0,等待时间也接近0队列分析•作为分组处理模型的M/M/1l1/Tm=1/bM/M/1ModelQueueBufferNetworkSwitchhlServer队列分析•作为分组处理模型的M/M/1–结论•延时与负载率ρ有关•负载率ρ接近1是系统停止处理负载•负载率ρ约为0.5时队列还存在•如果使用重传机制,网络过载会造成网络完全瘫痪•避免负载率ρ超过0.9队列分析•不同的突发强度对延迟的影响(网络仿真的结果W10,5CVmaxCVmin突发强度增加,延迟增加QOS机制•低负载方式下运行负载率不超过20%~30%,可以保证服务质量缺点:没有发挥分组交换处理突发流量的优势QOS机制•区分不同的服务类别区分处理延迟敏感的流量和弹性流量10.5W0.90.2wews系统有两种延时,We和Ws队列管理算法输入超过处理能力时,分组会在队列中缓冲,不同的队列管理算法提供不同的服务效果队列管理算法•FIFO优点:简单缺点:不能区分服务队列管理算法•优先权排队–流量分类,源、目的地址,端口好,协议等–流量分类点,可以位于任何设备中,比较好的办法是位于网络边缘QueueswithdifferentprioritiesHighNormalMediumLowIncomingtrafficOutgoingtrafficOutputqueueScheduler(absolutepriorities)ClassifierSelectionfromqueueifallqueuesofhigherprioritiesareemptyBuffersofdifferentsize(protocol,addresses)Fig.7.9.Priorityqueues队列管理算法•优先权排队–保证了高优先权的流的延时–地优先权的流的服务质量降低,程度难于预测–适用于保证强度不大的实时流的延时–不适用于速率高的实时流量,如视频流队列管理算法•加权排队OutgoingtrafficOutputqueueScheduler(weightedcircularforwarding)Classifier(protocol,addresses)0.10.10.30.20.3Incomingtraffic队列管理算法•加权排队–强所有类型的流提供末已确定的最小带宽–特定类型流量的负载率极大影响这一类型流量的延迟–只有发生拥塞,各个队列保持为满的状态,加权排队才能保证各流量之间的比例关系–加权公平队列,各流之间的权重一样队列管理算法•混合排队算法•优先权排队保证了最高优先级的流量•加权排队平均流量速率,但不提供任何和延时有关的保证•上述两种算法的折中,例如,有一个优全队列,其他队列是加权排队队列管理算法•混合排队算法上述两种算法的折中反馈•队列管理只能在资源短缺的情况下尽力改善网络的性能•反馈能防止网络拥塞•反馈的信息–拥塞指示,指示源端发生拥塞,如FR–最大传输速率,指示元节点必须遵守的速度阈值–最大数据量,指出可以发送的最大数据量,如滑动窗口,–隐含指示,分组丢失等信息,如TCPFeedback1Feedback2InformationFeedback3Feedback4Feedback5Fig.7.11Feedbackparticipants资源预留–是一种拥塞避免方法–与电路交换网有点相似,但带宽可以在各个流之间动态分配–预留的是平均速率,因此网络交换机必须能处理短期过载–如果网络不能满足QOS水平,将拒绝服务,如拒绝建立虚电路–是一种面向连接的方法–虚电路网络在建立虚电路时完成资源预留–数据报网络使用资源预留协议RSVPS1S3S212431234i1i2i3i4i3i1i2i4i1i2i3i4Fig.7.12.Resourcereservationinpacket-switchednetworks资源预留–流量调节•必须保证各流必须满足他们声称的值•检查点在进入交换机时,包括–流量分类,选出需要的流–流量监管,保证每个流和它的QOS参数一直,一般适用漏桶或令牌桶算法–流量整形,平缓突发的流量流量工程•结合路由进行资源预留•平衡所有网络设备的负载•使网络拥有最大的中性能,并保证QOS流量工程•传统路由方法的不足–传统路由方法认为陆又是唯一的ABCDFGE流量工程•流量工程的思想–初始参数•网络特性,拓扑、交换机的性能、链路的带宽等•负载信息4510010045451001001020100100155LinkbandwidthSustainedinformationrate62512135030Fig.7.16.Offeredload4510010045451001001020100100155255066610013131363030303050Fig.7.17.Distributionoftheloadoverthenetwork—choosingroutesforthetraffic流量工程•聚集流,将QOS参数一样的流汇聚在一起,降低计算的复杂性•为特定的流计算路由,保证路由上所有的资源利用率不超过阈值•集中的解决方法•分布的解决方法,利用改进的路由协议,如OSPF