Performance of Transport Control Protocol over Dynamic Spectrum Access Links

2007 IEEE

这篇论文主要就是分析了几个版本的TCP协议在DSA网络中的性能问题。

得出的结论是:

大部分现在在用的几个版本的TCP协议,都是能够较好地适应DSA环境,吞吐率都能达到95%。当然,是在满足几个前提下:

1)BS(基站)的buffer足够大(并不是一个不可实现的值,是一个实际能够满足的值。)

2)TCP是采用了SACK的。

另外的一个结论是,如果延迟相当大,一切都扯淡。而PU的出现,就可能引起相当大的延迟,从而导致TCP性能的严重降低。作者指出了这一点。

其中,还有其他的结论,比如,嗅探时间的长短对TCP性能的影响,因为本文采取的是”完美嗅探“,因为嗅探时间短并没有造成什么负面影响;但当嗅探时间很长时,延迟就不可避免的增大了(因为嗅探期是不能发包的,即使采用了buffer,不至于丢包,但延迟足够大,一切又都扯淡。)

当然,从头看这篇文章,它使用的模型是这样子的:

Sender->BS 是有线网络,带宽10Mbit/s,一个恒定延迟用来表征现实中在链路传输中可能遇到的延迟。另外的延迟包括链路队列延迟、传输延迟。DSA中不计传播延迟。(带过,木有给具体值~)

BS->Receiver DSA网络,M信道,总带宽2.4Mbit/s,带宽平均分配,当M变化时,每个信道的带宽随之变化(M的不同主要是实验对比)。PU到来离去参数是λ、μ.

Receiver->BS 2.5Mbit/s的恒定无线网络,从而使得TCP的ACK信息得以稳定传输。

DSA没有链路错误,BS利用“energy detection”进行信道选择,“完美选择”。

在此场景下,试验TCP Vegas,New Reno ,NS Reno with SACK的不同表现。

结果在最开始已经说过了。

要讨论的问题是:这个DSA网络不符合真实场景?

Receiver->BS的通信,这么设计?真实场景中是这样,还是只是为了实验?应该来说,在选定信道后通信,数据的传输都是在同一个信道的,因而这种模拟应该不符合实际场景的,因为其结论应该也是有待商榷的。

那么之所以结论中的TCP能很好的适应DSA,应该就是基于这样一种假设,同时加上:

BS的buffer足够大。

嗅探时长保持很小,不会带来明显的TCP延迟。

PU带来的延迟足够小,不影响TCP的性能。

而实际情况中,

嗅探时间是需要权衡准确率与时间的。模拟中不考虑时间的操作,采用完美嗅探,可以把时间设计的足够小,以不会造成明显延迟。这种设计可取,但不完美。

PU带来的延迟,应该来说是DSA中最要考虑的因素。一个是PU自身的到达离去特征本身决定了频谱切换的频繁程度;一个是频谱切换本身涉及到的空出信道、嗅探、获得新信道的时延。这是重要的一部分。这部分时延应该是足以引起TCP反馈的。

(这是时延引起的TCP性能下降;另外的一个问题是,切换信道后,TCP可能并不能够充分使用新的信道容量。具体地?)

所以,要关注的点是:切换到底需要多长时间,会不会给TCP带来可感知的延迟。

(如果极快而不可感知,TCP的性能不会受到影响。那就不需要研究这一块了。)

原文地址:https://www.cnblogs.com/lunac/p/3423725.html