高带宽延时积网络的用赛控制.docx
- 文档编号:14405458
- 上传时间:2023-06-23
- 格式:DOCX
- 页数:20
- 大小:43.56KB
高带宽延时积网络的用赛控制.docx
《高带宽延时积网络的用赛控制.docx》由会员分享,可在线阅读,更多相关《高带宽延时积网络的用赛控制.docx(20页珍藏版)》请在冰点文库上搜索。
高带宽延时积网络的用赛控制
高带宽延时积网络的拥塞控制
摘要
理论与实验表明,随着带宽的高流量积和延迟增加,TCP变得效率低下,同时还有不稳定,不管排队方案的倾向。
随着因特网向高带宽光纤链路与高延迟卫星链路的合并,这些缺点越来越重要。
为解决这个问题,我们开发一种新方法。
这种新方法在网络拥塞控制方面胜于TCP,保证了效率,公平,可扩展性,和稳定性。
这个新的显示控制协议,XCP,概括了显示拥塞通知协议(ECN)。
此外,XCP从公平控制中引入去耦利用的概念。
这允许一个更加灵活的,易处理的协议设计,为服务差异化开辟了新渠道。
用控制理论框架,我们模拟了XCP,证明不管链路容量,往返延时,数据源数量这些条件如何,它都具有稳健性和有效性。
大量的数据包等级模拟实验证明,XCP在传统和高带宽延迟环境下都优于TCP。
在稳定或可变通信中,XCP都具有公平带宽分配,高利用率,小队列,几乎0丢包等优点。
此外,新协议不在路由器中维持数据流状态,需要为每个数据包分配CPU周期,这使它能在告诉路由器中有作用。
引言
随着互联网的持续壮大,拥塞控制机制在网络发展时必须保持有效。
技术趋势暗示了未来互联网将有大量的高带宽链路。
高延迟的卫星链路和无线电线路将会司空见惯。
这些趋势存在大量问题,因为在带宽或延迟增加时,对TCP很不利。
当前拥塞控制算法的数学模型分析揭示了,不管队列方案如何,随着带宽延时积的增加,TCP会有不稳定的倾向。
为问题铸造控制理论框架,规则[23]表明,随着容量和延时的增加,随机早期丢弃(RED),随机早期标记(REM),比例积分控制器,虚拟队列都有不稳定的倾向。
它们进一步证明,在高容量或大延时链路中,AQM维持稳定不太可能。
此外,Katabi和Blake证明当链路容量足够大时,AVQ有不稳定的趋势。
效率低是TCP在未来网络中面临的问题。
随着带宽延时积的增加,性能会下降。
TCP附加的增加机制限制了获得空余带宽的能力。
因为在高带宽链路中的单数据流的带宽延时积或许是成千上万的数据包。
伴随着拥塞突发,TCP会消耗大量的RTT来增加高利用率。
此外,链路容量的增加不会提高短数据流的传输延时。
短TCP数据流不能比“慢开始“更快地获得空余带宽,当带宽空余时,还会浪费有用的RTT。
因为TCP的吞吐量与RTT成反比。
在卫星链路或无线链路中传输大量数据流时,公平将会成为问题。
用户用不同RTT争夺共同瓶颈容量会导致不公平。
尽管大带宽延时积的影响还没有出现,但我们已经能在当前网络中看到这些问题的雏形。
例如,在卫星链路上TCP显示了网络利用问题和和TCP对长RTT数据流有偏见。
当前,这些问题用一些特殊机制得到了缓和,例如应答间隔,分开连接,性能增强的代理服务器。
《第一页结束》
《第二页开始》
文章开发了一个新的拥塞控制协议,在传统环境它优于TCP。
新的明确控制协议XCP概括了明确拥塞报告协议(ECN)。
替代使用ECN的一位拥塞缺陷,路由器通知发送方在瓶颈上的拥塞等级。
另一个新观念是利用率控制和公平控制不挂钩。
对于控制利用率,新协议根据空余带宽调整侵占性。
这阻止了震荡,在高带宽或大延时中提供了稳定性,并确保了网络资源的有效利用。
对于控制公平,协议收回那些高于公平共享的数据流带宽,分配给其他数据流。
把控制状态放在数据包中,XCP不需要在路由器中的状态,并能测量任意数量的数据流。
实验只需少量CPU周期就能使它在高速路由器中更有实用性。
在先前的工作[22,15,23]中,控制理论框架的运用表明协议的流体模型对任何链路容量,反馈延时,数据源数量都具有稳定性。
与参数依赖于这些条件的多种AQM方案相反,我们分析了如何设置新协议的参数,使这些参数不受环境影响。
大量数据包级别的模拟实验证明,不论队列方案如何,TCP的性能随容量或延时的增加而下降。
相反,新协议能达到高利用率,小队列,不丢包,不受容量和延时影响。
即使在传统环境中,模拟实验证明了协议展示了更好的公平,更高的利用率,更小的队列大小,几乎不丢包。
在大量短网状数据流的动态环境中也能保持好的性能,并对长RTT数据流没有抵制。
新协议的独特性是没有丢包。
尽管我们以解决TCP在高带宽大延时环境中的限制为目标,我们的设计还有其他的优势。
首先,让公平控制从利用率控制中脱离出来开辟了服务差异化的新渠道,服务差异化运用了提供期望带宽分配的方案。
我们提出了一个实施窗口价格模型的方案。
第二,协议有利于区别误差损失和拥塞损失,这对无线环境很有用。
在XCP中,有拥塞引起的丢包很少见。
此外,因为协议用了精确的拥塞反馈,明确反馈会先于拥塞丢包。
明确反馈首先会告诉数据源减少它的拥塞窗口。
早于和跟随明确增加反馈的损失很可能是误差损失。
第三,XCP有利于不良数据源的检测。
最后,XCP的性能鼓励端用户和网络提供商去配置此协议。
我们给出了可能配置路径。
2.设计原理
最初目的是在不考虑反向兼容性或配置的情况下,重新考虑网络拥塞控制。
如果我们从头建立一个新的拥塞控制结构,它会是什么样呢?
首先观察到数据包丢失是拥塞的信号。
由于我们不相信好的网络能避免丢失,丢失数据包是不得已的拥塞信号。
作为隐式信号,丢失很严重,因为拥塞不仅是数据源的丢失,还因为数据包丢失不能马上做出来这个明确决策。
作为二进制信号,丢失只是意味着是否有拥塞。
在反馈之前,发送方必须探测网络中的拥塞位置。
由于反馈是不明确的,增加机制必须是保守的,减少机制是激进的。
彻底的拥塞控制需要明确的拥塞反馈。
拥塞不是二进制变量,所以拥塞信号应该反映出拥塞等级。
我们计划在网络明确告诉发送方拥塞状态和如何对它做出反映的地方使用明确的拥塞信号。
当瓶颈达到拥塞时,即在发送速率接近瓶颈容量时,这允许发送方快速地减少发送窗口。
协议要有响应和没有震荡。
第二,数据源的激进性应该根据反馈环路的延时做相应的调整。
由于控制回路延迟,拥塞控制的强弱是模糊的。
这类系统的基本特征是对大反馈延迟会变得不稳定。
为回应失稳效应,系统必须随着反馈延时增加而减速。
在拥塞控制的前提下,这意味着,随着延迟的增加,数据源需要变慢发送速率。
这些问题已被其他研究者提出[23,26],但重要的问题是怎样根据恰当的反馈建立稳定。
用控制理论的工具,推测基于速率不匹配的拥塞反馈应该与延迟成反比,基于队列不匹配的反馈与队列延迟成反比。
拥塞的稳定性应该与未知多变的参数无关。
控制理论的基本原则陈述控制器必须与控制信号的强弱做不够快的反应,否则控制器将一直滞后于控制系统,变得没有效率。
在当前拥塞控制协议下,控制器是AQM方案。
控制信号是链路中的总通信量。
控制器争取满足输入通信与链路容量匹配。
然而,这个目标在输入通信由TCP数据流组成时很难完成,因为TCP群的强弱依赖于数据流的数量。
总速率以每个RTT周期N个数据包的速率增加或以1/N减少。
由于数据流的数目不固定,没有哪个AQM控制器能以常量参数足够快的运行在任意多的TCP数据流。
系统的1/3目标是总通信量的强弱不依赖数据流数量。
这导致需要效率控制与公平控制不关联。
拥塞的稳定需要总通信量独立于数据流数目。
然而,任何公平带宽分配本质上取决于在瓶颈传输的数据流数量。
总体数据流的分割带宽规则应与管理总体强弱的控制规则无关。
《第二页结束》
《第三页开始》
传统上,效率和公平是成对的因为同一控制法则习惯上同时获取公平和效率。
从概念上讲,效率和公平是独立的。
效率只涉及总体数据流行为。
当输入通信速率等于链路容量时,没有队列建立,利用率是最佳的。
公平涉及共享链路的相关数据流吞吐量。
当数据流共享一个链路具有相同的吞吐量时说这个方案是公平的。
在新范式中,路由器有效率控制器和公平控制器。
通过减少强加的需求,这种分开简化了设计和分析每个控制器。
在没有重构或重分析另一个的时候,它允许修改一个控制器。
此外,它为整合不同带宽分配提供了一个灵活的框架。
例如,根据它们的优先级或它们支付的价格为发送方分配带宽只需要改变公平控制器,并不影响效率或拥塞特性。
3.协议
XCP为端系统和路由器提供接口。
像TCP,XCP是基于窗口的拥塞控制协议,意在最有效的通信。
然而,它灵活的结构能支持不同的服务。
XCP的描述假设一个纯粹的XCP网络。
XCP能与TCP在相同网络与TCP友好共存。
3.1框架
首先,我们给出在网络中如何控制信息流的概述,并解释反馈计算。
发送方维持他们的拥塞窗口cwnd和往返时间rtt,并通过在数据包中的拥塞报头与路由器交流这些信息。
路由器为每个输出队列监控输入通信速率。
基于链路带宽和输入通信速率的差别,路由器告诉共享链路中的数据流增加或减少它们的拥塞窗口。
通过注释数据包的拥塞报头完成这些工作。
反馈分为基于cwnd的数据流反馈和基于rtt的数据流的反馈,目的是让系统公平。
在链路中更拥塞的路由器进一步通过重写拥塞报头来减少反馈。
最后,数据包包含链路中反馈。
当反馈到达接收方,它会返回发送方一个确认数据包,发送方相应的更新它的cwnd。
3.2拥塞报头
每个XCP数据包携带一个拥塞报头,用来传达给路由器数据流的状态和从路由器到接收方的反馈。
H_cwna是发送方的当前拥塞窗口,H_rtt是发送方的当前RTT估值。
这些填充在发送方,在发送时不被修改。
H_feedback,存放正负值,被发送方初始化。
路径上的路由器能修改这个字段来控制数据源的拥塞窗口。
3.3XCP发送方
和TCP一起,XCP发送方维持数据包、cwcd、rtt的拥塞窗口。
在数据分发时,发送方为数据包附加拥塞报头,用H_cwnd字段设置当前cwnd,用H_rtt设置当前rtt值。
在数据流的第一个数据包,H_rtt设置为0来告诉路由器这个数据源没有有效的RTT估值。
发送方初始化H_feedback字段要求它的期望窗口增加。
例如,当应用有一个期望速率r,在当前拥塞窗口中,数据包数量分割的拥塞窗口值由发送方设置H_feedback达到期望的增量。
若带宽可用,在一个RTT之后,初始化允许发送方达到期望的速率。
一个新的确认无论何时到达,正反馈拯救发送方的cwnd,负反馈减少cwnd。
除了直接反馈,XCP扔需要对丢包进行回应,尽管这不常发生。
做法与TCP类似。
3.4XCP接收方
XCP接收方类似于TCP接收方,除了确认数据包,它从数据包中复制拥塞报头到确认数据包中。
3.5XCP路由器:
控制规则
XCP路由器的工作是计算引起系统集中于最佳效率和极小-极大公平的反馈。
XCP不丢包。
它运行在丢包机制的上层。
XCP的目标是阻止队列建立在不得不丢包的位置。
为计算反馈,XCP路由器用有效控制器和公平控制器。
这两种路由器都是计算链路中数据流的平均RTT,目的是消除基于窗口的控制协议的突发性。
估计参数间隔大于平均RTT导致响应缓慢,小于RTT导致错误估计。
平均RTT是用拥塞报头的信息计算的。
XCP控制器为每个平均RTT制作了一个单控决策。
这是因为,在尝试一个新协议之前,需要观察先前的控制决策。
例如,若路由器告诉数据源增加拥塞窗口,在下次告诉数据源增加时,路由器需先观察有多少空余带宽。
《第三页结束》
《第四页开始》
路由器保留链路估计控制定时器,用来记录最新的平均RTT估值。
超时期间,路由器更新它的估值和控制决策。
文章的剩余部分,谈到路由器的当前RTT估值α强调这是反馈延时。
3.5.1效率控制器
效率控制器的目的是最大化链路利用率,最小化丢包数量和队列大小。
在总通信时不用关心公平问题。
由于XCP是基于窗口的,EC计算在控制间隔的总通信量的增加或减少值。
总反馈Φ在每个控制间隔中都计算。
α和β是常量,数值大小基于稳定性分析。
d是平均RTT,S是空余带宽,Q是队列大小。
通过取在最后传播延时中的到达数据包最小队列计算Q值。
等式1使反馈正比于空余带宽,因为当S
0,链路可用,发送正反馈,当S<0,链路拥塞,发送负反馈。
但单独这么做是无效的,因为当输入通信匹配容量时,认为我们没有给出反馈,所以队列不分发。
为分发现存队列,我们使总反馈正比于现存队列。
最后,由于反馈在字节中,空余带宽S乘以RTT。
为达到效率,我们把总反馈分配给单数据包。
由于EC只处理总体行为,并不关心哪些数据包得到反馈和丹哥数据流改变了多少拥塞窗口。
EC需要总通信该变量。
分割反馈的精确程度影响公平,这是公平控制器的工作。
3.5.2公平控制器
公平控制器的任务是为个体数据包公平分配反馈。
FC依靠和TCP相同的原则,AIMD。
计算总数据包反馈用以下机制:
若Φ>0,分配的增量在所有数据流吞吐量中相同
若Φ<0,数据流吞吐量的减少量正比于当前吞吐量。
在Φ不为0的情况下,这确保了持续的公平。
当效率最佳时,为防止它停止引入带宽混排的概念。
这是同时分配和解除带宽以至于总通信速率不改变,但每个数据流的吞吐量逐渐达到数据流公平共享。
混排通信计算如下:
y是输入通信量,γ是0.1的常量。
这个公式确保了对于每个RTT,至少有10%的通信量根据AIMD重新分配。
选择10%是在收敛至公平的时间和强加在最佳效率系统上的混排干扰做权衡时得到的。
下一步,计算允许FC执行在上述机制中的总数据包反馈。
由于增加用加法,较少用乘法,计算数据包i的反馈随着正反馈
和负反馈
相结合变得更容易。
首先,计算当反馈是正值的情况。
增加所有数据流相同的吞吐量。
数据流i的吞吐量变化量正比于相同常量。
由于处理的是基于窗口的协议,我们要计算的变化量是拥塞窗口的而不是它的吞吐量。
数据流i的拥塞窗口变化值是它的吞吐量变化值乘以它的RTT。
数据流i的拥塞窗口变化量正比于数据流的RTT。
下一步是转化拥塞窗口变化值为总数据包反馈,总数据包反馈会在拥塞报头中给出。
一个数据流的总拥塞窗口变化量是它收到的总数据包反馈的总和。
在一个控制间隔d内,路由器从数据流i中检测数据包的期望值,用这个期望值划分拥塞窗口的变化量,由此我们得到总数据包反馈。
这个数值正比于数据流的由数据包大小划分的拥塞窗口,反比于它的RTT。
总数据包正反馈正比于数据流RTT的平方,反比于由数据包划分的拥塞窗口。
在总通信速率的增量是
,max(Φ,0)确保了我们计算的是正反馈。
这等于所有数据流速率的增量和,也是一个数据流得到的正反馈的总和。
L是在一个RTT时间内路由器检测到的数据包数量。
相似的,当Φ<0时,计算总数据包负反馈。
在这种情况,我们想让数据流i按它当前的吞吐量减少。
因此,在数据流的拥塞窗口,这个期望变化与它当前的拥塞窗口成正比。
路由器以时间间隔d检测的数据流的预期数据包量,由这些数据包分割拥塞窗口,这个改变就是期望总数据包反馈。
最终发现,总数据包负反馈应该正比于数据包大小乘以数据流的RTT。
3.5.3有效性与公平控制器的说明
在一节总结有效控制器和公平控制器的重要性。
最初提到,有效和公平控制器是分开的。
尤其,有效恐吓器用MIMD规则,它增加通信速率正比于系统的空闲带宽。
即使在高容量链路,XCP也能快速得到空余带宽。
公平控制器用AIMD规则,它集中在公平上。
不挂钩使两种控制器用各自适合的规则。
有效控制器和公平控制器用到的特殊控制规则并不是唯一选择。
例如,我们用二项式定律描述公平控制器类似于在[6]所描述的。
选择以上控制规则是因为我们的分析和模拟实验证明它们性能很好。
有效控制器满足[2]的需求。
总通信的强弱用总反馈和传输在链路上的独立数据流数量来说明。
不同于TCP,增加或减少规则不同于在网络中的拥塞水平。
由EC发送的总反馈正比于利用率水平。
此外,由于总反馈是通过RTT给出的,XCP随往返延时积增加变得温和。
尽管公平控制器用AIMD,它比TCP更快达到公平。
XCP的强弱与反馈延时很难在等式1中体现出它们的联系。
建议参考等式16,它表明基于不匹配率的吞吐量变化正比于延迟时间,基于队列不匹配的变化正比于队列延迟时间。
乘积减少帮助集中于公平。
在TCP中,乘积减少试用于丢包事件,这很少见。
相反,XCP乘积减少与丢包无关,在每个平均RTT上都能用。
XCP在估测误差上也有效。
我们估计
值并预测在流动传输间隔期间的
。
若低估了
,我们就分配不到在当前控制间隔下得所以正反馈。
但是,这带宽将在的输入通信估计中作为空余带宽出现,在这个间隔内被非配到。
在每个控制间隔,空闲带宽部分将被分配,直到没有留下。
由于我们低估
导致分配减少,会缓慢收敛于效率。
但这个错误不会停止XCP达到满利用率。
相似的,若高估了
,在开始时的控制间隔内会分配更多的反馈,很快将反馈耗尽。
分配间隔的不均匀并不影响达到利用率,但会缓慢达到公平。
相似论证能用在估计误差,他们只是影响收敛时间,并不影响正确率。
XCP的参数是定值,并独立于数据源数量,延时,瓶颈容量。
这比以前有显著改善因为特殊值只能用在特殊环境,或依赖于数据源数量,容量,延迟。
在[4],我们说明如何选择这些值。
最后,实施有效和公平控制器十分简单,只需要附录A中的少量代码。
4.稳定性分析
用通信流体模型来分析XCP的稳定性。
分析考虑了多种XCP数据流穿过单链路。
为了简化和易处理,和以前的工作[22,15,23,24]相似,分析假设所以的数据流具有相同的,有限的,确定的延迟,忽略边界条件。
大量实验证明,在大拓扑结构时,不同RTT和边界条件,结果仍然成立。
有一种误差会组织完成有效性,这是混乱通信的不稳定的分配和解除分配。
例如,在控制间隔结束时,我们解除所有的混乱通信,但没有分配它,这种混乱会阻碍完成充分链路运用。
但混乱通信只占输入通信的10%。
此外,只有在|Φ|<0.1y时,混乱通信才存在。
《第五页结束》
《第六页开始》
证明细节在附录B中给出了。
稳定性证明的思想如下。
给出以上的假设,系统是线性反馈系统,具有延迟。
这种系统的稳定性通过列出奈奎斯特图中的开环传递函数进行研究。
通过选择如上所述的α,β值来证明系统满足奈奎斯特稳定性判据。
此外,增益裕度大于1,相位裕度大于0,独立于延迟,容量,数据源数量。
5.性能
在这一节,通过大量模拟实验证明,在传统环境和高带宽环境,XCP都胜过TCP。
我们的模拟实验表明,XCP具有几乎从不丢包的特性。
我们证明了,在定理1的条件下,在任何容量,延迟,数据源中都能为α,β选择常量。
模拟实验从1.5Mb/s—4Gb/s,传播延迟在10ms—1.4s,数据源数量在1—1000之间。
我们模拟了对称通信和进出动态环境的短网状流。
在这些模拟中,设置α=0.4,β=0.226展现了结果的稳定。
模拟证明,与TCP相比,新协议抑制震荡,平滑集中在高利用率,小队列,公平带宽分配。
同时证明了协议在不同通信需求和不同数据流往返时间下,都有稳定性。
5.1模拟设置
模拟用数据包水平模拟ns-2,XCP模块也参与其中。
通过排队规则,我们比较XCP与TCPreno:
随机早期丢弃算法(RED)。
实验用“温和”模式,根据作者建议设置参数。
最小与最大阈值分别设置为缓冲区的1/3,2/3。
增益裕度是在频率-Π条件下的传递函数大小。
相位裕度是传递函数为1时的频率。
在www.ana.lcs.mit.edu/dina/XCP.上的代码是可用的。
随机提起标记(REM):
根据作者建议以及提供的代码进行设置REM参数。
Φ=1.001,γ=0.001.更新间隔设置在10个数据包传递时间,qref设置在缓冲区大小的1/3.
自适应虚队列(AVQ)。
作者建议,实验用γ=0.98,基于等式[22]计算α。
在[19]中,这个等式设置α不适合大容量。
这种情况,在[22]中用α=0.15。
核心无状态公平队列(CSFQ):
与AQM相比,AQM目的在于高利用率和小队列。
在核心路由器没有数据流状态的网络云端,CSFQ旨在提供高公平性。
CSFQ与XCP相比,发现XCP能在CSFQ框架中使用,并能提供公平性和有效性。
参数设置用作者的ns实施中的数据。
AQM方案的代码由作者提供。
为了让发难展现最好的性能,在模拟时我们把ECN使能。
在所以模拟中,XCP参数α=0.4,β=0.226。
XCP在Drop-Tail和RED丢包策略中都做了实验。
这两种清明没有区别,因为XCP从不丢包。
大多数模拟实验用图2所示的拓扑结构。
根据实验目的,瓶颈容量,往返延迟,数据流数量是多样的。
根据带宽延迟积设置缓冲区大小设置。
根据图3结构做的实验表明了实验结果可以推广在更大更复杂的拓扑结构。
《第六页结束》
《第七页开始》
在未指明时,读者应该假设模拟拓扑学,即数据流的RTT是相等的,数据流是长期的FTP数据流。
模拟运行时间依赖于传输延时,并经常大于300RTT。
所以的模拟都运行足够长的时间以确保系统达到一致的行为。
5.2与TCP和AQM方案做比较
容量的影响:
不管队列方案怎样,链路容量的增加都将引起TCP性能降级。
在这个实验中,50个长期FTP数据流共享一个瓶颈。
往返传播延时是80ms。
另外,有50个数据流穿过反向路径,经常建立带有应答压缩潜能的对称通信环境。
因为XCP基于流体模型并估计一些参数,具有结果突发性的反向通信有向协议施压的趋势。
图4说明,随着容量的增加,TCP的瓶颈利用率严重减少。
不管队列方案如何,这结果都会发生。
与此相反,XCP的利用率独立于链路容量,始终接近最佳。
此外,XCP从不丢失数据包,尽管TCP使用ECN,它也会丢失数以千计的数据包。
尽管XCP队列伴随着容量增加,但队列延时并不增加,因为大容量引起处理队列加快。
反馈延时的影响:
我们固定瓶颈容量在150Mb/s,研究增加延时对拥塞控制性能的影响。
所有其他参数具有与先前实验相同的值。
图5表明,随着传播延时增加,TCP的利用率不管队列方案,下降严重。
相反,XCP维持高利用率。
大延迟对TCP的性能的负面影响已经在卫星链路中熟知。
TCP的突发性被认为是一个潜在解释,数据包速度被提议为解决方案。
然而,实验表明突发性是小因素。
尤其,XCP是基于窗口的突发性协议,但它处理延迟比TCP好多了。
它能根据往返延迟调整它的积极性。
数据流数量的影响:
我们固定瓶颈容量在150Mb/s,往返传播延迟在80ms,并在不同数量的FTP数据源进行相同实验。
其他参数与先前的实验保持一致。
图6表明,XCP展现了很好的利用率,合理的队列大小,没有丢失数据包。
在XCP队列中,数据流的增加对它的高公平性有反作用。
当数据流的数量大于500时,公平拥塞窗口是一个实数,但有效拥塞窗口是数据包的整数。
随着公平窗口的减小,化整误差引起扰乱。
因此,队列增大能消除这些扰乱。
短网状通信的影响:
在网络中的大量数据流是短网状数据流。
这对调查在拥塞控制中动态数据流影响很重要。
在这个实验,我们有50个长期FTP数据流在瓶颈链路中传输。
同时,有50个数据流在反向链路中传输。
这两种存在仿真具有确认压缩结果的对称通信环境。
瓶颈带宽是150Mb/s,往返传输延时是80ms。
短流程以泊松方式到达。
从柏拉图非配方式得到平均30个数据包的传输大小,这依赖于实际网络流量。
图7描绘了瓶颈利用率,平均队列长度,丢失包总数,以及各种情况下得到达率。
在动态环境下,伴随着大量数据流的到达与分发,图表数据显示了XCP的稳健性。
即使在数据流的到达率显著增大时,XCP也能持续保持高利用率,小队列长度,0丢失量。
在到达率高于800流/s,XCP开始丢包。
这不是由环境的高动态引起的。
这是因为,在高达率时,同一时刻的活动流程很少。
在通道中没有空间来维持数据包的最小量,丢包是必然的。
这种情况,XCP实行最低丢包策略,即RED。
公平性:
这个实验表明,XCP比TCP更公平,不管队列方案怎样。
我们有30个永久的FTP数据流共享一个30Mb/s的通道。
做两组模拟。
在第一组,所有的数据流都有40ms的往返传播延迟。
在第二组,数据流有不同的RTT,范围在40~330ms中间。
图8证明了,与其他方法相比,XCP提供了公平的带宽分配,对长RTT数据流没有偏见。
此外,图8-b显示了在RTT分配中,即使变化大,X
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 带宽 延时 网络 控制
![提示](https://static.bingdoc.com/images/bang_tan.gif)