当前位置:首页 » 网络连接 » 计算机网络ARR协议
扩展阅读
送平板电脑女生拒收 2024-05-18 11:54:08
电脑有线网络连接类型 2024-05-18 11:53:15
怎么改进网络的信号 2024-05-18 11:50:18

计算机网络ARR协议

发布时间: 2024-05-04 14:14:08

Ⅰ arq协议是什么协议

自动重传请求(Automatic Repeat-reQuest,ARQ)是OSI模型中数据链路层和传输层的错误纠正协议之一。

定义

如果在协议中,发送方在准备下一个数据项目之前先等待一个肯定的确认,则这样的协议称为PAR(Positive Acknowledgement with Retransmission;

支持重传的肯定确认协议)或者ARQ(Automatic Repeat Request,自动重复请求协议)。

自动重传请求(Automatic Repeat Request),通过接收方请求发送方重传出错的数据报文来恢复出错的报文,是通信中用于处理信道所带来差错的方法之一,有时也被称为后向纠错(Backward Error Correction,BEC);另外一个方法是信道纠错编码。

(1)计算机网络ARR协议扩展阅读:

应用

UMTS的ARQ机制是在基地台控制站(Radio Network Controller,RNC),使用安置在协议数据单元(Protocol Data Unit,PDU)前的序号来作为是否有封包丢失的依据,有不少的延迟时间。

优点和缺点

ARQ协议的优点是它非常的简单。因而被广泛的应用在分组交换网络中。

ARQ协议的缺点是需要接收方发送ACK,这样增加了网络的负担也影响了传输速度。重复发送数据包来纠正错误的方法也严重的影响了它的传输速度。

Ⅱ 计网:运输层

本篇文章先概括介绍运输层协议的特点、进程之间的通信和端口等重要概念,然后讲述比较简单的UDP协议。然后讨论较为复杂但非常重要的TCP协议和可靠传输的工作原理,包括停止等待协议和ARQ协议。在详细讲述TCP报文段的首部格式之后,讨论TCP的三个重要问题:滑动窗口、流量控制和拥塞控制机制。最后,介绍TCP的连接管理。

从通信和信息处理的角度看,运输层向它上面的应用层提供通信服务,它属于面向通信部分的最高层,同时也是用户功能中的最低层。

当网络的边缘部分中的两台主机使用网络 的核心部分的功能进行端到端的通信时,只有主机的协议栈才有运输层,而网络核心部分中的路由器在转发分组时都只用到下三层的功能。

运输层有一个很重要的功能 复用和分用:

从IP层来说,通信的两端是两台主机。但实际上,真正进行通信的实体是 在主机中的进程,是这台主机中的一个进程和另一台主机中的一个进程在交换数据(即通信)。运输层提供应用进程间的逻辑通信。“逻辑通信”的意思是:从应用层来看,只要把应用层报文交给下面的运输层, 运输层就可以把这报文传送到对方的运输层。但事实上这两个运输层之间并没有一条水平方向的物理连接。数据的传送是沿着图中的虚线方向(经过多个层次)传送的。

从这里可以看出网络层和运输层有明显的区别。网络层为主机之间提供逻辑通信,而运输层为应用进程之间提供端到端的逻辑通信。

运输层还要对收到的报文进行差错检测,而在网络层,IP数据报首部中的检验和字段,只检验首部是否出现差错而不检查数据部分。

根据应用程序的不同需求,运输层需要有两种不同的运输协议,即面向连接的TCP和无连接的UDP,这两种协议就是本章要讨论的主要内容。

当运输层采用面向连接的TCP协议时,尽管下面的网络是不可靠的(只提供尽最大努力服务),但这种逻辑通信信道就相当于一条全双工的可靠信道。但当运输层釆用无连接的UDP协议时,这种逻辑通信信道仍然是一条不可靠信道。

TCP/IP运输层的两个主要协议都是互联网的正式标准,即:

在TCP/IP体系中,则根据所使用的协议是TCP或 UDP,分别称之为TCP报文段或UDP用户数据报。

UDP在传送数据之前不需要先建立连接。远地主机的运输层在收到UDP报文后,不需要给出任何确认。虽然UDP不提供可靠交付,但在某些情况下UDP却是一种最有效的工作方式。

TCP则提供面向连接的服务。在传送数据之前必须先建立连接,数据传送结束后要释放连接。TCP不提供广播或多播服务。由于TCP要提供可靠的、面向连接的运输服务,因此不可避免地增加了许多的开销,占用许多处理机资源。

前面己经提到过运输层的复用和分用功能。应用层所有的应用进程都可以通过运输层再传送到IP层(网络层),这就是复用。运输层从IP层收到发送给各应用进程的数据后,必须分别交付指明的各应用进程,这就是分用。显然,给应用层的每个应用进程赋予一个非常明确的标志是至关重要的。

为了使运行不同操作系统的计算机的应用进程能够互相通信,就必须用统一的方法(而这种方法必须与特定操作系统无关)对TCP/IP体系的应用进程进行标志。

解决这个问题的方法就是在运输层使用协议端口号,或通常简称为端口。这就是说,虽然通信的终点是应用进程,但只要把所传送的报文交到目的主机的某个合适的目的端口,剩下的工作(即最后交付目的进程)就由TCP或UDP来完成。

在协议栈层间的抽象的协议端口是软件端口,和路由器或交换机上的硬件端口是完全不同的概念。软件端口是应用层的各种协议进程与运输实体进行层间交互的一种地址。

TCP/IP的运输层用一个16位端口号来标志一个端口。但请注意,端口号只具有本地意义,它只是为了标志本计算机应用层中的各个进程在和运输层交互时的层间接口。在互联网不同计算机中,相同的端口号是没有关联的。

两个计算机中的进程要互相通信,不仅必须知道对方的IP地址(为了找到对方的计算机),而且要知道对方的端口号(为了找到对方计算机中的应用进程)。

因此运输层的端口号分为下面的两大类:

用户数据报协议UDP只在IP的数据报服务之上增加了很少一点的功能,这就是复用和分用的功能以及差错检测的功能。

UDP的主要特点是:

用户数据报UDP有两个字段:数据字段和首部字段。首部字段很简单,只有8个字节。由四个字段组成,每个字段的长度都是两个字节。各字段意义如下:

当运输层从IP层收到UDP数据报时,就根据首部中的目的端口,把UDP数据报通过相应的端口,上交最后的终点——应用进程。

如果接收方UDP发现收到的报文中的目的端口号不正确(即不存在对应于该端口号的应用进程),就丢弃该报文,并由网际控制报文协议ICMP发送“端口不可达”差错报文给发送方。

UDP用户数据报首部中检验和的计算方法有些特殊。在计算检验和时,要在UDP用户 数据报之前增加12个字节的伪首部。所谓“伪首部”是因为这种伪首部并不是UDP用户数 据报真正的首部。只是在计算检验和时,临时添加在UDP用户数据报前面,得到一个临时的 UDP用户数据报。检验和就是按照这个临时的UDP用户数据报来计算的。伪首部既不向下传
送也不向上递交,而仅仅是为了计算检验和。

UDP计算检验和的方法和计算IP数据报首部检验和的方法相似。但不同的是:IP数据 报的检验和只检验IP数据报的首部,但UDP的检验和是把首部和数据部分一起都检验。

TCP是TCP/IP体系中非常复杂的一个协议,下面介绍TCP最主要的特点:

前面己经讲过,每一条TCP连接有两个端点,TCP连接的端点叫做套接字或插口。端口号拼接到IP地址即 构成了套接字。

因此,套接字的表示方法是在点分十进制的IP地址后面写上端口号,中间用冒号或逗号隔开,例如说:

每一条TCP连接唯一地被通信两端的两个端点(即两个套接字)所确定,例如:

这里IP1和IP2分别是两个端点主机的IP地址,而port1和port2分别是两个端点主机中的端口号。TCP连接的两个套接字就是socket1和socket2。

总之,TCP连接就是由协议软件所提供的一种抽象。

虽然有时为了方便,我们也可以说,在一个应用进程和另一个应用进程之间建立了一条TCP连接,但一定要记住:TCP连 接的端点是个很抽象的套接字,即(IP地址:端口号)。

我们知道,TCP发送的报文段是交给IP层传送的。但IP层只能提供尽最大努力服务,也就是说,TCP下面的网络所提供的是不可靠的传输。因此,TCP必须釆用适当的措施才能使得两个运输层之间的通信变得可靠。

“停止等待”就是每发送完一个分组就停止发送,等待对方的确认。在收到确认后再发送下一个分组。

停止等待协议有以下四种情况:

停止等待协议的优点是简单,但缺点是信道利用率太低。

信道利用率U可以用以下公式计算:

为了提高传输效率,发送方可以不使用低效率的停止等待协议,而是釆用流水线传输,这种传输方式可以获得很高的信道利用率。

滑动窗口协议比较复杂,是TCP协议的精髓所在。这里先给出连续ARQ协议最基本的概念,但不涉及许多细节问题。

发送方维持的发送窗口,它的意义是:位于发送窗口内的分组都可连续发送出去,而不需要等待对方的确认。这样,信道利用率就提高了。

连续ARQ协议规定,发送方每收到一个确认,就把发送窗口向前滑动一个分组的位置。

如果原来己经发送了前5个分组,那么现在就可以发送窗口内的第6个分组了。

接收方一般都是釆用累积确认的方式。这就是说,接收方不必对收到的分组逐个发送 确认,而是在收到几个分组后,对按序到达的最后一个分组发送确认,这就表示:到这个分组为止的所有分组都已正确收到了。

累积确认有优点也有缺点。优点是:容易实现,即使确认丢失也不必重传。但缺点是不能向发送方反映出接收方己经正确收到的所有分组的信息。

如果发送方发送了前5个分组,而中间的第3个分组丢失了。这时接收方只能对前两个分组发出确认。发送方无法知道后面三个分组的下落,而只好把后面的三个分组都再重传一次。这就叫做Go-back-N(回退N)。

TCP虽然是面向字节流的,但TCP传送的数据单元却是报文段。一个TCP报文段分为首部和数据两部分,而TCP的全部功能都体现在它首部中各字段的作用。

TCP报文段首部的前20个字节是固定的,后面有4n字节是根据需要而增加的选项。因此TCP首部的最小长度是20字节。

首部固定部分各字段的意义如下:

TCP的滑动窗口是以字节为单位的。

现假定A收到了 B发来的确认报文段,其中窗口是20字节,而确认号是31(这表明B期望收到的下一个序号是31,而序号30为止的数据已经收到了)。

A的发送窗口表示:在没有收到B的确认的情况下,A可以连续把窗口内的数据都发送出去。凡是已经发送过的数据,在未收到确认之前都必须暂时保留,以便在超时重传时使用。

发送窗口后沿的后面部分表示己发送且己收到了确认。发送窗口后沿的变化情况有两种可能,即不动(没有收到新的确认)和前移(收到了新的确认)。

发送窗口里面的序号表示允许发送的序号。窗口越大,发送方就可以在收到对方确认之前连续发送更多的数据,因而可能获得更高的传输效率。但A的发送窗口一定不能超过B的接收窗口数值。

发送窗口前沿的前面部分表示不允许发送的。发送窗口前沿通常是不断向前移动,但也有可能不动。这对应于两种情况:一是没有收到新的确认,对方通知的窗口大小也不变;二是收到了 新的确认但对方通知的窗口缩小了,使得发送窗口前沿正好不动。

现在假定A发送了序号为31〜41的数据。这时,发送窗口位置并未改变, 但发送窗口内靠后面有11个字节(灰色小方框表示)表示己发送但未收到确认。而发送窗口内靠前面的9个字节(42〜50)是允许发送但尚未发送的。

从以上所述可以看出,要描述一个发送窗口的状态需要三个指针:P1,P2和P3,小于P1的是已发送并已收到确认的部分,而大于P3的是不允许发送的部分:

再看一下B的接收窗口。B的接收窗口大小是20。在接收窗口外面,到30号为止的数据是已经发送过确认,并且已经交付主机了。因此在B可以不再保留这些数据。接收窗口内的序号(31〜50)是允许接收的。

此时B收到了序号为32和33的数据。这些数据没有按序到达,因为序号为31的数据没有收到(也许丢失了,也许滞留在网络中的某处)。请注意,B只能对按序收到的数据中的最高序号给出确认,因此B发送的确认报文段中的确认号仍然是31 (即期望收到的序号),而不能是32或33。

现在假定B收到了序号为31的数据,并把序号为31〜33的数据交付主机,然后B删除这些数据。接着把接收窗口向前移动3个序号,同时给A发送确认,其中窗口值仍为20,但确认号是34。这表明B已经收到了到序号33为止的数据。我们注意到,B还收到了序号为37, 38和40的数据,但这些都没有按序到达,只能先暂存在接收窗口中。

A在继续发送完序号42〜53的数据后,指针P2向前移动和P3重合。发送窗口内的序号都已用完,但还没有再收到确认(图5-18)。由于A的发送窗口己满,可用窗口已减小到零,因此必须停止发送。为了保证可靠传输,A只能认为B还没有收到这些数据。于是,A在经过一段时间后(由超时计时器控制)就重传这部分数据,重新设置超时计时器,直到收到B的确认为止。

CP的发送方在规定的时间内没有收到确认就要重传已发送的报文段。这种重传的概念是很简单的,但重传时间的选择却是TCP最复杂的问题之一。

如果把超时重传 时间设置得太短,就会引起很多报文段的不必要的重传,使网络负荷增大。但若把超时重传 时间设置得过长,则又使网络的空闲时间增大,降低了传输效率。

那么,运输层的超时计时器的超时重传时间究竟应设置为多大呢?

TCP釆用了一种自适应算法,它记录一个报文段发出的时间,以及收到相应的确认的 时间。这两个时间之差就是报文段的往返时间RTT。TCP保留了 RTT的一个加权平均往返时间RTT s

每当第一次测量到RTT样本时,RTTs值就取为所测量到的RTT样本 值。但以后每测量到一个新的RTT样本,就按下式重新计算一次RTT s

显然,超时计时器设置的超时重传时间RTO应略大于上面得 出的加权平均往返时间RTT s ,所以RTO应该这样计算。

而RTT D 是RTT的偏差的加权平均值,它与RTTs和新的RTT样本之差有关。

现在发送出一个报文段,设定的重传时间到了,还没有收到确认。于是重传报文段。经过了一段时间后,收到了确认报文段。现在的问题是:如何判定此确认报文段 是对先发送的报文段的确认,还是对后来重传的报文段的确认?

Kam算法进行修正。方法是:报文段每重传一次,就把超时重传时间RTO增大一些。典型的做法是取新的重传时间为旧的重传时间的2倍。当不再发生报文段的重传时,才根据上面给出的式子计算超时重传时间。

现在还有一个问题没有讨论。这就是若收到的报文段无差错,只是未按序号,中间还缺少一些序号的数据,那么能否设法只传送缺少的数据而不重传已经正确到达接收方的数据?答案是可以的。选择确认就是一种可行的处理方法。

举一个例子来说明选择确认的工作原理。TCP的接收方在接收对方发送过来的数据字节流的序号不连续,结果就形成了一些不连续的字节块。

可以看出,序号1〜1000收到了,但序号1001〜1500没有收到。接下来的字节流又收到了,可是又缺少了3001〜3500。再后面从序号4501起又没有收到。

也就是说,接收方收到了和前面的字节流不连续的两个字节块。如果这些字节的序号都在接收窗口之内,那么接收方就先收下这些数据,但要把这些信息准确地告诉发送方,使发送方不要再重复发送这些已收到的数据。

一般说来,我们总是希望数据传输得更快一些。但如果发送方把数据发送得过快,接 收方就可能来不及接收,这就会造成数据的丢失。所谓流量控制就是让发送方的发送速率不要太快,要让接收方来得及接收。

利用滑动窗口机制可以很方便地在TCP连接上实现对发送方的流量控制。

设A向B发送数据。在连接建立时,B告诉了A:“我的接收窗口rwnd = 400”。因此,发送方的发送窗口不能超过接收方给出的接收窗口的数值。

我们应注意到,接收方的主机B进行了三次流量控制。第一次把窗口减小到rwnd = 300, 第二次又减到rwnd = 100,最后减到rwnd = 0,即不允许发送方再发送数据了。这种使发送方暂停发送的状态将持续到主机B重新发出一个新的窗口值为止。

TCP协议使得在发送方不发送很小的报文段的同时,接收方也不要 在缓存刚刚有了一点小的空间就急忙把这个很小的窗口大小信息通知给发送方。

在计算机网络中的链路容量(即带宽)、交换结点中的缓存和处理机等,都是网络的资源。在某段时间,若对网络中某一资源的需求超过了该资源所能提供的可用部分,网络的性能就要变坏。这种情况就叫做拥塞,即对资源需求之和 > 可用资源。

网络拥塞往往是由许多因素引起的。简单地将处理机的速率提高或简单地扩大缓存的存储空间,可能会使上述情况缓解一些,但往往又会将瓶颈转移到其他地方。问题的实质往往是整个系统的各个部分不匹配。只有所有的部分都平衡了,问题才会得到解决。

拥塞控制与流量控制的关系密切,它们之间也存在着一些差别。拥塞控制就是防止过多的数据注入到网络中,这样可以使网络中的路由器或链路不致过载。流量控制往往是指点对点通信量的控制,是个端到端的问题(接收端控制发送端)。

下图中横坐标是提供的负载,代表单位时间内输入给网络的分组数目。纵坐标是吞吐量,代表单位时间内从网络输出的分组数目。

实践证明,拥塞控制是很难设计的,因为它是一个动态的(而不是静态的)问题。

从大的方面看,可以分为 开环控制 闭环控制 两种方法:

TCP进行拥塞控制的算法有四种,即慢开始、拥塞避免、快重传和快恢复。

为了集中精力讨论拥塞控制,我们假定:

拥塞控制也叫做基于窗口的拥塞控制。为此,发送方维持一个叫做拥塞窗口cwnd的状态变量。拥塞窗口的大小取决于网络的拥塞程度,并且动态地在变化。发送方让自己的发送窗口等于拥塞窗口。

发送方控制拥塞窗口的原则是:只要网络没有出现拥塞,拥塞窗口就可以再增大一些,以便把更多的分组发送出去,这样就可以提高网络的利用率。但只要网络出现拥塞或有可能出现拥塞,就必须把拥塞窗口减小一些,以减少注入到网络中的分组数,以便缓解网络出现的拥塞。

发送方又是如何知道网络发生了拥塞呢?我们知道,当网络发生拥塞时,路由器就要丢弃分组。因此只要发送方没有按时收到应当到达的确认报文,也就是说,只要出现了超时,就可以猜想网络可能出现了拥塞。现在通信线路的传输质量一般都很好,因传输出差错而丢弃分组的概率是很小的(远小于1%)。因此,判断网络拥塞的依据就是出现了超时。

慢开始算法的思路是这样的:当主机开始发送数据时,由于并不清楚网络的负荷情况,所以如果立即把大量数据字节注入到网络,那么就有可能引起网络发生拥塞。因此我们由小到大逐渐增大拥塞窗口数值。

新的RFC5681把初始拥塞窗口cwnd设置为不超过2至4个SMSS(发送方的最大报文段)的数值。慢开始规定,在每收到一个对新的报文段的确认后,可以把拥塞窗口增加最多一个SMSS的数值。

下面用例子说明慢开始算法的原理。在一开始发送方先设置cwnd = 1,发送第一个报文段M1,接收方收到后确认M1。发送 方收到对M1的确认后,把cwnd从1增大到2,于是发送方接着发送M2和M3两个报文 段。接收方收到后发回对M2和M3的确认。发送方每收到一个对新报文段的确认(重传的不算在内)就使发送方的拥塞窗口加1,因此发送方在收到两个确认后,cwnd就从2增大到4,并可发送M4〜M7共4个报文段。

与慢开始算法相辅助的算法是拥塞避免算法。

拥塞避免算法的思路是让拥塞窗口 cwnd缓慢地增大,即每经过一个往返时间RTT就 把发送方的拥塞窗口cwnd加1,而不是像慢开始阶段那样加倍增长。在拥塞避免阶段,拥塞窗口 cwnd按线性规律缓慢增长,比慢开始算法的拥塞窗口增长速率缓慢得多。

为了防止拥塞窗口 cwnd增长过大引起网络拥塞,还需要设置一个慢开始门限ssthresh 状态变量。慢开始门限ssthresh的用法如下:

下面用图片说明慢开始算法和拥塞避免算法相互配合的原理。

其中ssthresh的初始值设置为16,开始时使用慢开始算法,成指数性增长,当到达ssthresh值时,TCP协议预测可能会出现拥塞,所以开始使用避免拥塞算法,成线性增长,当发生超时重传时,立即减小拥塞窗口,重复上述步骤。

但是,有时,个别报文段会在网络中丢失,但实际上网络并未发生拥塞。如果发送方迟迟收 不到确认,就会产生超时,就会误认为网络发生了拥塞。这就导致发送方错误地启动慢开 始,把拥塞窗口cwnd又设置为1,因而降低了传输效率。

釆用快重传算法可以解决上述问题。快重传算法可以让发送方尽早知道发生了个别报文段的丢失。快重传算法首先要求接收方不要等待自己发送数据时才进行捎带确认,而是要立即发送确认,即使收到了失序的报文段也要立即发出对已收到的报文段的重复确认。

下面举一个例子来说明快重传算法的原理。接收方收到了M1和M2后都分别及时发出了确认。现假定接收方没有收到M3但却收到了 M4。本来接收方可以什么都不做。但按照快重传算法,接收方必须立即发送对M2的重复确认,以便让发送方及 早知道接收方没有收到报文段M3。发送方接着发送M5和M6。接收方收到后也仍要再次分别发出对M2的重复确认。这样,发送方共收到了接收方的4个对M2的确认,其中后3个都是重复确认。快重传算法规定,发送方只要一连收到3个重复确认,就知道接收方确实没 有收到报文段M3,因而应当立即进行重传(即“快重传”),这样就不会出现超时,发送方也不就会误认为出现了网络拥塞。

快恢复算法与快重传算法配合使用,当使用快重传算法发现是由于数据丢失而引起的超时(不是网络拥塞引起的),就使用快恢复算法,此时发送方调整门限值ssthresh=cwnd/2,同时设置拥塞窗口cwnd=ssthresh,并开始执行拥塞避免算法。

慢开始、拥塞避免、快重传和快恢复这四种算法相辅相成,构成了TCP的拥塞控制。

网络层的策略对TCP拥塞控制影响最大的就是路由器的分组丢弃策略。在最简单的情 况下,路由器的队列通常都是按照“先进先出”的规则处理到来的分组。

由于队列长度总是有限的,因此当队列已满时,以后再到达的所有分组(如果能够继续排队,这些分组都将排在队列的尾部)将都被丢弃。这就叫做尾部丢弃策略。

路由器的尾部丢弃往往会导致一连串分组的丢失,这就使发送方出现超时重传,使 TCP进入拥塞控制的慢开始状态,结果使TCP连接的发送方突然把数据的发送速率降低到 很小的数值。更为严重的是,在网络中通常有很多的TCP连接(它们有不同的源点和终 点),这些连接中的报文段通常是复用在网络层的IP数据报中传送。在这种情况下,若发生了路由器中的尾部丢弃,就可能会同时影响到很多条TCP连接,结果使这许多TCP连接在同一时间突然都进入到慢开始状态。这在TCP的术语中称为全局同步。

为了避免发生网络中的全局同步现象,可以使用主动队列管理AQM。

所谓“主动”就是不要等到路由器的队列长度已经达到最大值时才不得不丢弃后面到达的分组。这样就太被动了。应当在队列长度达到某个值得警惕的数值时 (即当网络拥塞有了某些拥塞征兆时),就主动丢弃到达的分组。这样就提醒了发送方放慢发送的速率,因而有可能使网络拥塞的程度减轻,甚至不出现网络拥塞。

TCP是面向连接的协议。运输连接是用来传送TCP报文的。TCP运输连接的建立和释放是每一次面向连接的通信中必不可少的过程。因此,运输连接就有三个阶段,即:连接建立、数据传送和连接释放。运输连接的管理就是使运输连接的建立和释放都能正常地进行。

在TCP连接建立过程中要解决以下三个问题:

TCP连接的建立釆用客户服务器方式。主动发起连接建立的应用进程叫做客户,而被动等待连接建立的应用进程叫做服务器。

TCP建立连接的过程叫做握手,握手需要在客户和服务器之间交换三个TCP报文段。

下面举一个例子来说明TCP建立连接的过程。假定主机A运行的是TCP客户程序,而B运行TCP服务器程序。最初两端的TCP进程都处于CLOSED(关闭)状态。图中在主机下面的方框分别是TCP进程所处的状态。请注意,在本例中,A主动打开连接,而B被动打开连接。

一开始,B的TCP服务器进程先创建传输控制块TCB,准备接受客户进程的连接请求。然后服务器进

Ⅲ 计算机网络

数据链路层差错控制问题。但提问问题的背景信息太少,不太清楚你的问题前提条件都还有什么。只能试着按照一般情况解答:
1、帧序号用3比特编号。当发送序号占用3个比特时,就可组成共有8个不同的发送序号,从000到111。当数据帧的发送序号为111时,下一个发送序号就又是000。
2、默认该网络采用的是连续ARQ协议的工作原理。要点就是:在发送完一个数据帧后,不是停下来等待应答帧,而是可以连续再发送若干个数据帧。如果这时收到了接收端发来的确认帧,那么还可以接着发送数据帧。由于减少了等待时间,整个通信的吞吐量就提高了。
3、根据题意,我们现在设发送序号用3比特来编码,即发送的帧序号可以有从0到7等8个不同的序号;又设发送窗口WT=5。那么,发送端在开始发送时,发送窗口将指明:即使在未收到对方确认信息的情况下,发送端可连续发送#0帧~#4帧等5个帧。若发送端发完了这5个帧(#0帧~#4帧)但仍末收到确认信息,则由于发送窗口已填满,就必须停止发送而进入等待状态。当收到0号帧的确认信息后,发送窗口就可以向前移动1个号,这时,#5帧已落人到发送窗口之内,因此发送端现在就可发送这个#5帧。其后假设又有3帧(#1至#3帧)的确认帧陆续到达发送端。于是发送窗口又可再向前移动3个号。此时,发送端又可继续发送#6帧、#7帧和新的#0帧。
4、当用 n个比特进行编号时,若发送窗口的大小为WT,接收窗口的大小为WR,则只有WT≤2的n次方-1和WT+WR≤2的n次方成立时,滑动窗口协议才能正常工作。
但根据题目描述举例,设n=3,WT=WR=5,当对某一序号的数据帧的 ACK 丢失时,接收端很可能将把这个#数据帧当做一个新的数据帧收下来,因此滑动窗口很可能不能正常工作。
5、选择重传ARQ协议
可设法只重传出现差错的数据帧或者是定时器超时的数据帧。但这时必须加大接收窗口,以便先收下发送序号不连续但仍处在接收窗口中的那些数据帧。等到所缺序号的数据帧收到后再一并送交主机。这就是选择重传ARQ协议。
使用选择重传ARQ协议可以避免重复传送那些本来已经正确到达接收端的数据帧。但我们付出的代价是在接收端要设置具有相当容量的缓存空间,这在许多情况下是不够经济的。
正因如此,选择重传ARQ协议在目前就远没有连续则协议使用得那么广泛。今后存储器芯片的价格会更加便宜,选择重传ARQ协议还是有可能受到更多的重视。 .
对于选择重传ARQ协议,接收窗口显然不应该大于发送窗口。若用n比特进行编号,则接收窗口的最大值必须满足:WR≤2n-1 。当接收窗口队为最大值时,即WR=2n-1。例如:在n=3时,可以算出WT=WR=4。

Ⅳ 运输层知识要点——谢希仁《计算机网络》

为了在计算机网络中有条不紊地交换数据,就必须遵守一些事先约定好的规则。这些规则明确规定了所 交换数据的格式 以及有关的 同步 问题。

同步的含义:在一定条件下应当发生什么事件,因而含有时序的意思。

网络协议:为进行网络中的数据交换而建立的规则、标准或约定。

网络协议由以下三个要素组成:

   1)语法:即数据与控制信息的结构或格式

   2)语义:即需要发出何种控制信息,完成何种动作以及做出何种反应

   3)同步:即事件实现顺序的详细说明

一、运输层协议的概述

   1.1 进程之间的通信

   1.2 运输层的两个主要协议

   1.3 运输层的端口

二、用户数据报协议UDP

   2.1 UDP概述

   2.2 UDP的首部格式

三、传输控制协议TCP概述

   3.1 TCP的最主要的特点

   3.2 TCP的连接

四、可靠传输的工作原理

   4.1 停止等待协议

   4.2 连续ARQ协议

五、TCP报文段的首部格式

六、TCP可靠传输的实现

   6.1 以字节为单位的滑动窗口

   6.2 超时重传时间的选择

   6.3 选择确认SACK

七、TCP的流量控制

   7.1 利用滑动窗口实现流量控制

   7.2 必须考虑传输效率

八、TCP的拥塞控制

   8.1 拥塞控制的一般原理

   8.2 几种拥塞控制方法

   8.3 随机早期检测RED

九、TCP的运输连接管理

   9.1 TCP的连接建立

   9.2 TCP的连接释放

   9.3 TCP的有限状态机

//////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////

1.1 进程之间的通信

1.只有主机的协议栈才有运输层,而网络核心部分中的路由器在转发分组时都只用到了下三层的功能

2.两个主机进行通信就是两个主机中的应用进程互相通信。从运输层的角度看,通信的真正端点并不是主机而是主机中的进程。(IP协议能把分组送到目的主机)

网络层时为主机之间提供逻辑通信,而运输层为应用进程之间提供端到端的逻辑通信。

3.运输层一个重要功能——复用、分用。 (应用进程复用、分用运输层)

1.2 运输层的两个主要协议

1.UDP—User Datagram Protocol 用户数据报协议(无连接):DNS/RIP/DHCP/SNMP/NFS

TCP—Transmission Control Protocol 传输控制协议(面向连接):SMTP/TELNET/HTTP/ FTP

1.3 运输层的端口

问题:为了使运行不同操作系统的计算机的应用进程能够互相通信,就必须使用统一的方法(而这种方法必须与特定操作系统无关)对TCP/IP体系的应用进程进行标识。

为什么不用进程号来区分?(第一,不同操作系统的进程标识符不同;第二,用功能来识别,而不是进程,例如邮件服务功能,而不管具体是哪个进程)

解决方案:在运输层使用协议端口号,即端口。软件端口是应用层的各种协议进程与运输实体进行层间交互的一种地址。(端口号只具有本地意义,只是为了标识本计算机应用层中各个进程在和运输层交互时的层间接口。)

端口分为两大类:

1)服务器使用的端口号:熟知端口号或系统端口号(0~1023);登记端口号(1024~49151)

2)客户端使用的端口号:49152~65535

2.1 UDP概述

1.UDP只在IP的数据报服务至上增加了很少一点功能,就是复用、分用以及差错检测功能

2.特点

   1)无连接

   2)尽最大努力交付

   3)面向报文 (不合并、不拆分、保留这些报文的边界)

   4)UDP没有拥塞控制

   5)UDP支持一对一、一对多、多对一和多对多的交互通信

   6)UDP的首部开销小,只有8字节

应用进程本身可以在不影响应用的实时性的前提下,增加一些提高可靠性的措施,如采用前向纠错或重传已丢失的报文。

2.2 UDP的首部格式

1.traceroute 让发送的UDP用户数据报故意使用一个非法的UDP端口号,接收方丢弃报文,并由ICMP(网络控制报文协议)发送“端口不可达”差错报文给发送方。

2.计算检验和。IP数据报的校验和只检验IP数据报的首部,但UDP的校验和是把首部和数据部分一起都检验。(12字节的首部+真正的首部+数据来进行校验和的计算)

   Q1.为什么计算校验和要加12字节的伪首部

   Q2.计算校验和的原理是什么?

3.1 TCP的最主要的特点

1.面向连接的运输层协议(建立连接、传输数据、释放连接)

2.点对点,每一条TCP连接只能有两个端点

3.可靠交付(无差错、不丢失、不重复、并且按序到达)

4.全双工通信。TCP连接的两端都设有发送缓存和接收缓存。

5.面向字节流。(流指的是流入到进程或从进程流出的字节序列;面向字节流:TCP把应用程序交下来的数据看成是一连串的无结构字节流。 接收方的应用程序必须有能力识别接收到的字节流,把它还原成有意义的应用层数据。 因此TCP可以根据窗口值和当前网络状况调整发送的报文长度。划分短一点,或者积累到足够多再发送出去。)

3.2 TCP的连接

1.TCP把连接作为最基本的抽象。

2.每一条TCP连接有两个端点。TCP连接的端点叫作套接字。

   套接字soket = (IP地址:端口号)

每一条TCP连接唯一地被通信两端的两个端点(即两个套接字)所确定。

   TCP连接 ::= {socket1, socket2}

理想的传输条件有以下两个特点:

   1)传输信道不产生差错

   2)不管发送方以多快的速度发送数据,接收方总是来得及处理收到的数据

实际的网络并不具备,因此:

   1)出现差错时,让发送方重传

   2)接收方来不及处理时,及时告诉发送方适当降低发送数据的速度

4.1 停止等待协议

1.“停止等待”就是没发送完一个分组就停止发送,等待对方的确认,在收到确认后再发送下一个分组。

2.超时重传。在每发完一个分组就设置一个超时计时器,如果在超时计时器之前收到对方的确认,就撤销已设置的超时计时器。如果未收到,就认为刚才的分组丢失,并重传。

3.三种情况:A发送的分组出错、丢失;B发送的确认丢失;B发送的确认迟到

确认丢失:B丢弃重复的分组,向A重传确认

确认迟到:A丢弃重复的确认,B丢弃重复分组,并向A重传确认

4.常称为自动重传请求ARQ,重传时自动进行的(超时即重传)

5.缺点:信道利用率太低

   U=Td/(Td+RTT+Ta)

为了提高传输效率,发送方不使用停止等待协议,而是采用流水线传输。流水线传输就是发送发可连续发送多个分组,不必等每发完一个分组就停顿下来等待对方的确认。(连续ARQ协议和滑动窗口协议)

4.2 连续ARQ协议

1.位于发送窗口内的分组都可连续发送出去,而不需要等待对方的确认。

2.累积确认:接收方不必对收到的分组逐个发送确认,而是在收到几个分组后,对按序到达的最后一个分组发送确认。

3.缺点:Go-back-N (发送前5个分组,第3个分组丢失,后面三个要重传)

1.源端口和目的端口

2.序号。 每个字节都按顺序编号。

3.确认号。 期望收到对方下一个报文段的第一个数据字节的序号。

若确认号=N,则表明:到序号N-1为止的所有数据都已正确收到。

4.数据偏移。 指出TCP报文段的数据起始处距离TCP报文段的起始处有多远(也即TCP报文段首部长度)。由于首部中还有长度不确定的选项字段,因此数据偏移字段是必要的。

5.窗口。窗口字段明确指出了现在允许对方发送的数据量。窗口值是经常在动态变化着。

6.1 以字节为单位的滑动窗口

1.发送缓存用来暂存:

   1)发送应用程序传送给发送方TCP准备发送的数据;

   2)TCP已发送但未收到确认德尔数据

2.接收缓存用来存放:

   1)按序到达的、但尚未被接收应收程序读取的数据;

   2)未按序到达的数据

3.注意三点:

   1)A的发送窗口是根据B的接收窗口设置的,但是在同一时刻,由于网络传输的滞后,A的发送窗口并不总是B的接收窗口一样大

   2)TCP通常对不按序到达的数据是先临时存放在接收窗口中,等到字节流中所缺少的字节收到后,再按序交付上层的应用进程

   3)TCP接收方有累计确认功能(不能过分推迟发送确认,否则会导致发送方不必要的重传)

6.2 超时重传时间的选择

1.超时重传时间设置太短,会引起很多不必要的重传;如果设置太长,使网络的空闲时间增大,降低传输效率。

2.新的RTTs = (1-a)x(旧的RTTs) + ax(新的RTT样本),其中RTT样本的时间为:记录一个报文段发出的时间,以及收到相应的确认时间,时间差就是报文段的往返时间RTT。

3.RTO = RTTs + 4 x RTTd,其中RTO为超时重传时间,RTTd是RTT的偏差的加权平均值。

新的RTTd = (1-b) x (旧的RTTd)+ b x |RTTs - 新的RTT样本|

4.一个问题:发送一个报文段,设定的重传时间到了,还没有收到确认。于是重传报文段。经过一段时间,收到了确认报文段。现在的问题是:如何判定此确认报文段是对先发送的报文段的确认,还是对后来重传的报文段的确认?

1)解决方法1,在计算加权平均值RTTs时,只要报文段重传了,就不采用其往返时间样本。

引入的问题:报文段的时延突然增大的情况

2)解决方法2,报文段每重传一次,就把超时重传时间RTO增大一些(一般是2倍)。当不在发生报文段的重传时,再根据加权平均计算。

6.3 选择确认SACK

SACK文档并没有指明发送发应当怎样响应SACK。因此大多数的实现还是重传所有未被确认的数据块。

7.1 利用滑动窗口实现流量控制

1.流量控制:就是让发送方的发送速率不要太快,要让接收方来得及接收。

2.利用滑动窗口机制可很方便地在TCP连接上实现对发送方的流量控制。发送方的发送窗口不能超过接收方给出的接收窗口的数值。

3.死锁情况:B向A发送了零窗口的报文段后不久,B又有了一些缓存空间,因此B向A发送rwnd = 400.然而该报文段在传送过程中丢失。A一直等待B发送的非零窗口的通知,B也一直等待A发送的数据。( 窗口通知不超时重传?为什么? )

解决方法:TCP为每个连接设有一个持续计时器。只要一方收到对方的零窗口通知,就启动计时器。计时器到期后,发送一个零窗口探测报文段,而对方就在确认这个探测报文段时给出了现在的窗口值。若仍为零,收到报文段的一方重新设置持续计时器。

7.2 必须考虑传输效率

1.应用程序把数据传送到TCP的发送缓存后,剩下的发送任务就由TCP来控制了。

2.三种不同的机制来控制TCP报文段的发送时机:

   1)TCP维持一个变量,它等于最大报文段长度MSS,只要缓存中的存放的数据达到MSS,就组装成一个TCP报文段发送出去

   2)由发送方的应用进程指明要求发送报文段,即TCP支持推送操作

   3)发送方设置一个定时器

3.问题一、若用户只发送一个字节,则非常浪费带宽。

解决方法:若发送应用程序把要发送的数据逐个字节地送到TCP的发送缓存,则发送方就把第一个数据字节先发送出去,把后面到达的数据字节都缓存起来。当发送方收到对第一个数据字符的确认后,再把发送缓存中的所有数据组装成一个报文段发送出去。(采用收到确认就发送+并开始缓存的方式;同时当到达的数据已达到发送窗口大小的一半或已达到报文段的最大长度时,就立即发送一个报文段。)

4.问题二、糊涂窗口综合症。接收缓存已满,应用程序一次只读取一个字节,然后向发送方发送确认。

解决方法:让接收方等待一段时间,使得接收缓存已有足够空间容纳一个最长的报文段,或者等到接收缓存已有一半空闲的空间。则接收方就发出确认报文。

8.1 拥塞控制的一般原理

1.拥塞的定义:对资源的需求 > 可用资源。 在计算机网络中的链路带宽、交换结点中的缓存和处理机等,都是网络中的资源。

2.拥塞解决不能靠解决某一个部分的问题。因为这会将瓶颈转移到其他地方。问题的实质往往是整个系统的各个部分不匹配。只有所有部分都平衡了,问题才会得到解决。

3.拥塞控制与流量控制的比较。

   1)拥塞控制:防止过多的数据注入到网络中,这样可以使网络中的路由器或链路不致过载。

   拥塞控制有个前提:网络能够承受现有的网络负荷

   拥塞控制是一个全局性过程。(发送拥塞时,不知道在某处、什么原因造成的)

   2)流量控制:点对点通信量的控制,是个端到端的问题

   流量控制:抑制发送端发送数据的速率,以便使接收端来得及接收。

4.寻找拥塞控制的方案无非就是使不等式 “对资源的需求 > 可用资源 ”不再成立的条件。但是必须考虑该措施带来的其他影响。

5.计算机网络是个复杂的系统。从控制理论的角度来看拥塞控制,可以分为开环控制和闭环控制两种方法。

   1)开环控制:设计网络时事先将有关发生拥塞的因素考虑周到,力求网络在工作时不产生拥塞。但一旦系统运行起来,就不再中途改正。

   2)闭环控制:基于反馈环路。

   步骤一、监测网络系统以便检测到拥塞在何时、何处发生;

   步骤二、把拥塞发生的信息传送到可采取行动的地方

   步骤三、调整网络系统的运行以解决出现的问题

8.2 几种拥塞控制方法(只考虑网络拥塞程度,即假设接收方总是有足够大的缓存空间)

1.慢开始和拥塞避免

1)发送方维持一个拥塞窗口。

   拥塞窗口的大小取决于网络的拥塞程度,并且动态地在变化。

   控制拥塞窗口的原则是:只要网络没有出现拥塞,拥塞窗口增大;如果网络出现拥塞,则减小。

2)慢开始的思路:由小到大逐渐增大拥塞窗口数值。每收到一个对新的报文段的确认,把拥塞窗口增加至多一个MSS的数值。(没经过一个传输轮次,拥塞窗口cwnd就加倍)

轮次:把拥塞窗口所允许发送的报文段都连续发送出去,并收到了对已发送的最后一字节的确认。

慢开始的“慢”并不是指cwnd的增长速率慢,而是指TCP开始发送报文段时先设置cwnd=1(一个MSS数值)。

3)慢开始门限ssthresh

   为防止拥塞窗口增长过大,引入一个慢开始门限ssthresh。

   当cwnd < ssthresh时,使用上述的慢开始算法

   当cwnd > ssthresh时,停止使用慢开始算法而改用拥塞避免算法

4)拥塞避免算法

思路:让拥塞窗口cwnd缓慢增大,即没经过一个往返时间RTT就把发送方的拥塞窗口cwnd增加1,而不是加倍。

5)慢开始门限的设置

只要发送方判断网络出现拥塞(没有按时收到确认),就把慢开始门限ssthresh设置为出现拥塞时发送方窗口值的一半,然后把拥塞窗口cwnd重置为1,执行慢开始算法。

6)乘法减小和加法增大

乘法减小:网络出现拥塞时,把慢开始门限ssthresh减半(当前的ssthresh的一半),并执行慢开始算法。

加法增大:执行拥塞避免方法

2.快重传和快恢复

1)快重传(尽快重传未被确认的报文段)

首先,要求接收方每收到一个失序的报文段后就立即发出重复确认。(如接收方收到了M1和M2后都分别发出了确认,但接收方没有收到M3但接着收到了M4。此时接收方立即发送对M2的重复确认。)

其次,发送方只要一连收到三个重复确认,就应当立即重传对方尚未收到的报文段M3.

2)快恢复

要点一、当发送方连续收到三个重复确认,就执行“乘法减小”算法,把慢开始门限ssthresh减半。

要点二、由于发送方认为网络很可能没有发生拥塞(因为收到了连续的重复确认),把cwnd设置为慢开始门限ssthresh减半后的值,然后开始执行拥塞避免算法

慢开始算法只在TCP连接建立时和网络出现超时才使用。

3.发送方的窗口

发送方窗口的上限值 = Min [rwnd, cwnd]

8.3 随机早期检测RED(IP层影响TCP层的拥塞控制)

1.网络层的分组丢弃策略

网络层的策略对TCP拥塞控制影响最大的就是路由器的分组丢弃策略。

如果路由器队列已满,则后续到达的分组将都被丢弃。这就叫做尾部丢弃策略。

2.全局同步

由于TCP复用IP,若发生路由器中的尾部丢弃,就可能会同时影响到很多条TCP连接,结果就使许多TCP连接在同一时间突然都进入到慢开始状态。全局同步使得全网的通信量突然下降了很多,网络恢复正常后,其通信量又突然增大很多。

3.随机早期检测RED

使路由器的队列维持两个参数,即队列长度最小门限THmin和最大门限THmax。当每一个分组到达时,RED就先计算平均队列长度Lav。RED算法是:

1)若平均队列长度小于最小门限THmin,则把新到达的分组放入队列进行排队

2)若平均队列长度超过最大门限THmax,则把新到达的分组丢弃

3)若平均队列长度在最小门限THmin和最大门限THmax之间,则按照某一概率p将新到达的分组丢弃。

随机体现在3),在检测到网络拥塞的早期征兆时(即路由器的平均队列长度超过一定的门限值时),就先以概率p随机丢弃个别的分组,让拥塞控制只在个别的TCP连接上进行,因而避免发生全局性的拥塞控制。

4.平均队列长度Lav和分组丢弃概率p

Lav = (1-d) x (旧的Lav) +d x (当前的队列长度样本)

p = ptemp / (1- count x ptemp)

ptemp = pmax x (Lav - THmin) / (THmax - THmin)

TCP时面向连接的协议。

运输连接就有三个阶段:连接建立、数据传送和连接释放

运输连接的管理:使运输连接的建立和释放都能正常地进行。

在TCP连接建立过程中要解决以下三个问题:

   1)要使每一方能够确知对方的存在

   2)要允许双方协商一些参数(如最大窗口值、是否使用窗口扩大选项和时间戳等等)

   3)能够对运输实体资源(如缓存大小、连接表中的项目等)进行分配

9.1 TCP的连接建立

1.TCP规定,SYN=1报文段不能携带数据,但消耗一个序号

2.TCP规定,ACK=1报文段可以携带数据,如果不携带数据则不消耗序号

3.为什么A还要发送一次确认?为了防止已失效的连接请求报文突然又传送到B,因而产生错误。

“已失效的连接请求报文段”

A发出第一个连接请求报文段,在网络中滞留超时,又发出了第二个连接请求。但B收到第一个延迟的失效的连接请求报文段后,就误认为是A又发出了一次新的连接请求。于是就向A发出确认报文段,同意建立连接。假定不采用三次握手,那么只要B发出确认,新的连接就建立。此时A不会理睬B的确认,也不会发数据,但B一直等A发送数据,B的许多资源就浪费了。

采用三次握手,A不会向B发送确认,因此B就知道A并没有要求建立确认。

9.2 TCP的连接释放

1.TCP规定,FIN报文段基石不携带数据,也消耗一个序号

2.第二次握手后,TCP通知高层应用程序,因而从A到B这个方向的连接就释放,TCP连接处于半关闭状态

3.为什么A在TIME-WAIT状态必须等待2MSL的时间

  1)为了保证A发送的最后一个ACK报文段能够到达B。因为ACK可能丢失,此时B可能会超时重传,然后A重传确认,并重新启动2MSL计时器

  2)防止“已失效的连接请求报文段”出现在本连接中。可以使本连接持续时间内所产生的所有报文段都从网络中消失。

9.3 TCP的有限状态机

Ⅳ 请计算机网络的高手做一下下面的名词解释各是什么意思,谢谢

ARP (Address Resolution Protocol)地址解析协议
ARQ (auto repeat request)自动重传请求
CSMA/CD (Carrier Sense Multiple Access/Collision Derect)载波监听多路访问/冲突检测
CSMA/CA (Carrier Sense Multiple Access/Collision Avoidance)载波监听多路访问/冲突防止
CTS 不知道
FTP (File Transfer Protocal)文件传输协议
HDSL(High-data-rate Digital Subscriber Line)高速率数字用户线路
ADSL(Asymmetric Digital Subscriber Line)非对称数字用户线
HTTP(HyperTextTransferProtocol)超文本传输协议
LAN (Local Area Network)局域网
MAC (Media Access Control)媒体访问控制
PING (Packet Internet Grope) 因特网探索数据包
QOS (Quality of Service) 服务质量
RTS 即时战略类游戏??
TCP (Transmission Control Protocol)传输控制协议
UDD 没听过,是不是UDP?(User Datagram Protocol)用户数据报协议
WAN (Wide Area Network) 广域网
WWW (World Wide Web )万维网
ATM (Asynchronous Transfer Mode)异步传输模式
DNS (Domain Name Server)域名服务器
RARP (Reverse Address Resolution Protocol)反向地址转换协议
IP (Internet Protocol)Internet协议
CDMA (Code Division Multiple Access)码分多址