运输层和TCP/IP协议

0. 基本要点

  • 运输层是为相互通讯的应用进程提供逻辑通讯
  • 端口和套接字的意义
  • 什么是无链接UDP
  • 什么是面向链接的TCP
  • 在不可靠的网络上实现可靠传输的工做原理,中止等待协议和ARQ协议
  • TCP的滑动窗口、流量控制、拥塞控制和链接管理

1. 运输层协议概述

  • 为何须要运输层?
    通讯真正的端点并非主机而是主机中的进程,IP协议帮助咱们将分组数据发送到对应的主机,可是这个分组仍是停留在了网络层,IP协议并不知道须要将分组数据交付给主机中的哪个应用或者哪个进程,而运输层的做用在于,一方面为上层应用层提供进程的端到端通讯服务,一方面屏蔽了下面网络核心的细节,在逻辑上好像两个进程实体之间存在一条端到端的逻辑通讯通道。
  • 运输层的两个功能:复用和分用

运输层.PNG

  • 运输层和网络层的区别:
    1. 网络层为主机之间提供逻辑通讯,运输层为进程之间提供端到端的逻辑通讯
    2. 运输层还要对报文进行差错检测,网络层只检验头部部分

2. TCP和UDP

  • UDP传输的是UDP报文段,在传送数据以前不须要创建链接
  • TCP提供面向链接的服务,传送数据前要创建链接,传送结束后要释放链接,TCP 不提供广播和多播服务,由于TCP要保证可靠的链接,所以增长不少相应的开销,协议首部会相对较大,同时也占用不少处理机的资源
应用 应用层协议 运输层协议
名字转换 DNS(域名系统) UDP
文件传输 TFIP(简单文件传输协议) UDP
路由选择协议 RIP(路由协议信息) UDP
IP地址分配 DHCP(动态主机配置地址) UDP
网络管理 SNMP(简单网络管理协议) UDP
远程文件服务器 NFS(网络文件系统) UDP
IP电话 专用协议 UDP
流式多媒体通讯 专用协议 UDP
多播 IGMP(网际组管理协议) UDP
电子邮件 SMTP(简单邮件传输协议) TCP
远程终端接入 TElNET(远程终端协议) TCP
万维网 HTTP(超文本传输) TCP
文件传输 FTP(文件传输协议) TCP
  • 端口:标志本计算机应用层的各个进程与运输层交互的层间接口,为了找到对方计算机中的应用进程。由于进程在不一样的操做系统中的进程标识符是不一样的,所以用标识符来识别进程是行不通的。
    1. 服务器使用的端口号:系统端口号:0-1023 登记端口号:1024-49151
      常见端口号:FTP:21, TELNET:23, SMTP:25
      DNS:55,TFTP:69,HTTP:80
      SNMP:161 SMP(trap):162 ,HTTPS:443html

    2. 客户端使用端口号:短暂端口号 49152-65535算法

3. UDP协议

  • UDP是无链接的,UDP不须要维持复杂的链接状态表,它尽最大努力交付
  • UDP是面向报文的,这里注意:UDP对于应用层交下来的报文,既不合并,也不拆分,而是保留这些报文的边界,应用层交给UDP多长的报文,UDP就封装多长的报文,所以,用户须要选择合适的报文长度,不然交给IP层后,过长会致使分片,过短会形成首部相对长度太大,下降IP层的效率。
  • UDP没有拥塞控制,网络拥塞不会下降源主机的发送效率。在一些实时应用中,如IP电话容许存在必定程度的丢包,但不容许太大延时。
  • UDP支持一对一,一对多,多对多交互通讯
  • UDP首部开销小,只有8个字节,每一个字段的长度都是两个字节,源端口+目的端口+长度+校验和

4. TCP协议

4.1 TCP协议特色

  • TCP协议是面向链接的,使用时创建链接,使用完毕释放链接
  • 每一个TCP链接只有连个端点,也就是说TCP链接是点对点,一对一的
  • TCP提供可靠的交付,无差错,不丢失,不重复,而且按序到达
  • TCP提供全双工的通讯,TCP容许进程任什么时候候都发送数据,TCP两端设有发送缓存和接收缓存,TCP会在合适的时候读取缓存或者将缓存中的数据发送出去。
  • TCP面向字节流,注意TCP并不关心进程一次将多少缓存发送到TCP的缓存,UPD发送的报文长度由进程指定,而TCP则是根据对方给的窗口值和当前网络拥塞状况而决定一个报文段包含多少字节。若是缓存数据块过长,TCP划分短一些,太短就积累足够多的字节构成报文段发送出去。

4.2 套接字

  • 套接字是一个抽象的概念:socket = (IP地址:端口号),TCP链接:{套接字}:{套接字},同一个IP地址能够有多个不一样的TCP链接,同一个端口号也能够出如今多个不一样的TCP链接中

4.3 可靠传输的工做原理

基本原理:当出现差错时让发送方从新传输出错的数据,同时在收方来不及处理数据时,及时告知发送方下降发送速率。缓存

  • 中止等待协议(最简单的协议,实际运输层并无采用):发送完一个分组后中止发送,等待对方的确认,收到确认后再发送下一个分组,若是收不到对方确认,超时重传,而产生超时重传的缘由多是收方的确认丢失了,也多是发送方发送的分组出错或者丢失,所以对于收方,对于重传的分组,假如是已经收到过的分组,此时须要执行丢弃重复分组,向发送方发送确认的动做。对于可能迟到的确认,发送方执行收下丢弃的处理。这种自动重传的协议咱们称之为ARQ(Automatic Repeat request)协议
  • ARQ协议最大的缺点是信道利用率过低,要一直等待来回往返的确认RTT时间,若是往返时间大于分组发送时间Td,那么信道利用率是很是低的。所以将来提升传输效率,采用流水线发送,也就是连续ARQ协议和滑动窗口协议。
  • 连续ARQ协议与go-back-N

4.4 TCP报文段首部

TCP头部.PNG

有几个比较重要的概念:服务器

  • 序号:占4个字节,一个TCP链接中的传输的字节流都要按顺序编号,好比一个报文字节序号为301,携带100个字节数据,那么该报文中第一个字节的序号为301,最后一个字节为400,下一个报文的序号字段值应为401
  • 确认号:占4个字节,是指望收到对方下一个报文段的第一个数据字节的序号。好比B正确收到了A发来的501-700的数据,那么B发送给A的确认报文中确认号位701,确认号=N,则代表到序号N-1为止全部数据都正确收到
  • 窗口:窗口值告诉对方从本报文首部确认号算起,接收方目前容许对方发送的数据量,(接收方的缓存是有限的)。B返回给A确认号701,窗口字段为1000,也就是告诉对方,从701开始,个人接收缓存空间还可接收1000个字节数据,你在发送数据时,必须考虑这一点。窗口字段明确指出如今容许对方发送的数据量,窗口值常常在动态变化
  • 选项:最大报文段长度MSS,窗口扩大项,时间戳(可处理**TCP序号超过2^32的状况,防止序号绕回)

5. TCP的可靠传输的实现

TCP 滑动窗口协议网络

以字节为单位的滑动窗口:发送方A的发送窗口,接收方B的接收窗口socket

  • 发送方缓存:发送缓存用于存放准备发送的数据和已经发送但还没有收到确认的数据
  • 发送窗口:发送窗口是发送缓存的一部分,已经确认的数据应当从发送缓存中删除,所以发送缓存和发送窗口的后沿是重合的(注意发送程序须要控制写入缓存的速率,太快会致使缓存没有存放数据的空间,由于发送的数据可能还未被确认)
  • 接收缓存存放:按序到达但尚未被应用接收的数据和未按序到达的数据
  • 接收窗口:若是收到分组出错,就要丢弃,若是接收应用程序来不及接收数据,接收缓存会被填满,接收窗口会被减少为零,若是可以及时处理,接收窗口就能够增大,接收窗口动态调整,并反馈给发送方,以通知发送方调整发送速率
  • 发送窗口两个决定因素:1.B的接收窗口做为参考 2.根据网络拥塞状况适当减少发送窗口数值
  • 整个发送过程能够描述为:
    1. A能够将窗口内的数据都发送出去,在此期间不须要收到B的确认状况,凡是没有获得确认的已发送数据暂时保留,以便超时重传
    2. B接收窗口对按序收到的数据的最高序号给出确认,若是B确认收到这些数据,就将接收窗口向前移动,并给A发送确认,A收到确认后,就将发送窗口向前移动。
    3. 若是A一直发送数据,一直到整个发送窗口内的数据发送完毕,也没有收到B的确认,那么A的发送窗口已满,则须要中止发送,通过一段时间(超时)重传这部分数据,直到收到B的确认,就能够向前移动窗口了。
  • 超时重传的时间选择
    1. 太短,引发没必要要的重传,过长,空闲时间增大,下降效率
    2. 自适应算法,记录报文段往返时间RTT(报文发出到收到确认之间的时间),经过测量RTT,得到一个加权平均往返时间RTTs
      新RTTs = (1-α)旧RTTs + α 新RTT样本(α一般为0.125)
      则超时重传时间RTO为:RTO= RTTs + 4 * RTTd(RTT的误差加权平均值)
    3. Kam算法:在计算加权平均RTTs的时候,只要报文段重传了,就不采用其往返时间样本。

6. TCP的流量控制

注意理解流量控制和拥塞控制的区别tcp

  • 流量控制:flow control,让发送方发送速率不要太快,要让接收方来得及接收,也就是说是一对一,发送方和接收方的协商
  • 流量控制的实现:滑动窗口机制,发送方的接收窗口不能超过接收方的接收窗口,接收方在发送ACK时可向发送方发送rwnd字段,告知接收窗口的大小进行流量控制

流量控制.PNG

  • 注意死锁的产生:B向A发送了零窗口报文后,过一段时间后B有了空间并向A发送rwnd = n的报文段,可是该报文段丢失了,这个时候A在等待B,B也在等待A从新发送数据,致使了互相等待的死锁局面。解决方法是当TCP链接的一方接到对方的零窗口通知,就启动持续计时器,若是时间到,就发送一个零窗口探测报文段
  • TCP传输效率:控制TCP发送报文段的时机
    1. Nagle算法:Nagle算法就是为了尽量发送大块数据,避免网络中充斥着许多小数据块。Nagle算法的基本定义是任意时刻,最多只能有一个未被确认的小段。 所谓“小段”,指的是小于MSS尺寸的数据块,所谓“未被确认”,是指一个数据块发送出去后,没有收到对方发送的ACK确认该数据已收到。性能

      (1)若是包长度达到MSS或者发送窗口大小的一半,则容许发送;
      (2)若是该包含有FIN,则容许发送;
      (3)设置了TCP_NODELAY选项,则容许发送;
      (4)未设置TCP_CORK选项时,若全部发出去的小数据包(包长度小于MSS)均被确认,则容许发送;
      (5)上述条件都未知足,但发生了超时(通常为200ms),则当即发送。操作系统

    2. 糊涂窗口综合征(silly window syndrome)设计

7. TCP的拥塞控制

7.1 拥塞控制与流量控制的区别

  • 拥塞产生的缘由:对网络资源的需求大于可用的资源,多是带宽不够,也多是交换结点的缓存过小,也多是发送方发送数据过快,而接受方接受数据过慢
  • 拥塞控制:拥塞控制是防止过多的数据注入到网络中,这样使得网络中路由器或者链路不至于过载,拥塞控制是一个全局性控制,涉及到全部主机、全部路由器以及下降网络传输性能有关的因素,相对于流量控制,流量控制是点对点通讯量的控制,是一个端到端的问题,抑制发送端发送速率,以便接收端来得及接收。
  • 拥塞控制容易与流量控制搞混,实际上某些拥塞控制就是经过向发送端报告网络状况,减缓发送速率来实现拥塞的控制
  • 拥塞控制由开环控制和闭环控制两种方法:
    1. 开环:设计网络时充分考虑有关拥塞状况,力求网络工做时不发送拥塞
    2. 闭环:检测系统网络以便检测拥塞在何处发生什么时候发生,而后根据拥塞产生的信息来调整网络运行状态,调整状态的操做如增大网络某些可用资源,或减小用户对某些资源的额需求等,调整过程也是一个动态变化的过程

7.2 TCP拥塞控制方法

TCP拥塞控制算法包括:快开始(Slow-start),拥塞避免(congestion avoidance),快重传(fast retransmit)和快恢复(fast recovery),这四个算法是配合起来使用的,以实现拥塞控制,固然这里的拥塞控制本质上是流量控制

拥塞控制.PNG

  • 判断网络拥塞的依据:出现超时
  • 慢开始:当主机开始发送数据时,并不清楚网络的负载状况,若是将大量字节注入网络,有可能引发网络拥塞,那么能够先探测一下,由小到大逐渐增大拥塞窗口数值,也就是逐渐增大发送窗口。初始拥塞窗口cwnd设置不超过2-4个SMSS(sender maximum segement size)
    1. 慢开始规定,每收到一个对新的报文段的确认后,就能够将拥塞窗口增长最多一个SMSS数值,也就是每次增长量 = min(N,SMSS),N是原先未确认,可是如今刚收到确认的字节数
    2. 如图所示,每通过一个传输轮次,拥塞窗口cwnd就加倍,(传输轮次是指往返时间RTT,就是将发送窗口中全部数据都发送出去了,而且发送方收到了对该窗口中最后一个字节的确认的这样一个轮次)
    3. 慢开始的慢在于TCP刚开始发送时是一个试探性发送的状态,其窗口cwnd的增加速率并不慢,是呈指数增加的。
  • 拥塞避免:由于慢开始的增加速率很快,cwnd很快就变得很大,若是增加过快就会产生网络拥塞,因此须要一个慢开始门限。在cwnd达到门限以后,采用拥塞避免算法,使得cwnd缓慢线性增加
    1. cwnd<ssthresh,使用慢开始算法,cwnd>ssthresh,使用拥塞避免,cwnd = ssthresh,二者皆可
    2. 拥塞避免每通过一个RTT时间,将cwnd加1,也就是加法增大,线性规律增加;
    3. 若是当达到某一窗口大小,产生超时,发送方判断为拥塞产生,则**调整门限值ssthresh = cwnd(当前值)/2, cwnd = 1(调整为1,进入慢开始)
  • 快重传:目的是当网络没有产生拥塞,可是出现个别报文段丢失,为了不发送方认为超时进入慢开始状态,应尽快在超时的限制时间内让发送方尽早知道有个别报文段产生了丢失,以尽快进行重传,这样就不会产生超时,不会被默认为存在网络拥塞。
    1. 快重传算法要求当即确认,要求接受方不使用捎带确认,而是即便收到了失序报文段也要当即发出对已收到报文段的额重复确认
    2. 算法规定,只要连续收到3个重复确认,就知道是哪一段对方没有收到,应道当即进行重传
  • 快恢复:承接快重传,发送方知道已经丢失了个别报文段,执行快回复算法调整门限ssthresh = cwnd /2,设置cwnd = ssthresh,并开始执行拥塞避免算法,也有将ssthresh = cwnd/2 +3

    TCP拥塞控制流程图.PNG

  • 注意:发送方窗口是由网络拥塞状况和对方的接收窗口共同决定的
    发送窗口上限值 = Min{rwnd,cwnd}

  • 主动队列管理:AQM(active queue management),路由器内部队列采用先入先出规则,若是队列已满,会丢弃再到达的分组,若是被动的队满丢弃,容易影响不少TCP链接,致使全局同步,全局通讯量降低,因此采用主动队列管理,当网络拥塞出现某些征兆的时候,主动丢弃某些分组,随机早期检测就是当队列平均队列长度达到必定值时,按照某种几率丢弃个别分组,这样让拥塞控制只在某些TCP链接上出现

8. TCP链接创建,数据传输和链接释放

  • TCP采用C/S模型,主动发起链接的是客户,等待链接的是服务器

三报文握手.PNG

  • A和B都各自选择初始序列号 x,y
  • SYN = 1 即SYN报文段不能携带数据,但要消耗一个序号
  • ACK报文段能够携带数据,若是不携带数据就不消耗序号
  • 为何A最后还要再发送一个ACK?是为了防止已经失效链接报文请求忽然传送到B,于是产生错误

TCP链接释放.PNG

  • B结束TCP链接的时间要早于A
  • 当A处于FIN-WAIT-2状态时,TCP处于半关闭状态,也就是说这个时候A已经不须要发送数据给B了,可是若是B有数据想要发送,A仍然须要接收
  • A接收到B释放链接报文并返回ACK后处于TIME-WAIT状态,还要等待2MSL才能够释放链接
    1. 实现终止TCP全双工链接的可靠性:假设最后的ACK丢失,服务器会重发FIN,所以客户端须要维护状态信息以容许重发最终的ACK(对于主动断开链接的服务器是一样的道理)保证A发送的最后一个ACK报文段可以到达B
    2. 保证老的重复分节在网络消失:保证来自先前链接的老的重复分组已经消失,2MSL(maximum segment lifetime 最长分节生命)时间足够让某个方向上的分组丢弃
相关文章
相关标签/搜索