目录
[TCP 异常情况](#TCP 异常情况)
为什么TCP如此复杂?因为要保证可靠性,同时要尽可能的提高性能。
可靠性:
- 校验和
- 序列号(按序到达)
- 确认应答
- 超时重发
- 连接管理
- 流量控制
- 拥塞控制
提高性能:
- 滑动窗口
- 快速重传
- 延迟应答
- 捎带应答
其他:
- 定时器(超时重传定时器,保活定时器,TIME_WAIT定时器等)
基于TCP应用层协议:HTTP、HTTPS、SSH、Telnet、FTP、SMTP,也有自己写TCP程序自定义的应用层协议
- TCP用于可靠传输的情况,应用于文件传输,重要状态更新等情景
- UDP用于对高速传输和实时性要求较高的通信领域,如早期的QQ,视频传输等,另外UDP可以用于广播

确认应答机制(ACK)
TCP将每个字节的数据都进行编号,即序列号。
每个ACK都带有对应的确认序列号,意思是告诉发送者,我已经收到了哪些数据;下一次从哪里开始发。
超时重传机制
- 主机A发送数据给B之后,可能因为网络拥堵等原因,数据无法到达主机B;
- 如果主机A在一个特定时间间隔 没有收到B发来的确认应答,就会进行重发;
但是,主机A没收到B发来的确认应答,也可能是因为确认应答ACK丢失了;
因此主机B会收到很多重复数据,那么TCP协议需要能够识别出哪些包是重复的包,并且把重复的丢弃掉。
这时候可以利用前面提到的序列号,就可以很容易做到去重的效果。
超时的时间又如何确定?
- 最理想的情况下, 找到一个最小的时间, 保证"确认应答一定能在这个时间内返
回"- 但是这个时间的长短, 随着网络环境的不同, 是有差异的.
- 如果超时时间设的太长, 会影响整体的重传效率;
- 如果超时时间设的太短, 有可能会频繁发送重复的包;
TCP 为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间。
- Linux 中(BSD Unix 和 Windows 也是如此), 超时以 500ms 为一个单位进行控
制, 每次判定超时重发的超时时间都是 500ms 的整数倍.- 如果重发一次之后, 仍然得不到应答, 等待 2*500ms 后再进行重传.
- 如果仍然得不到应答, 等待 4*500ms 进行重传. 依次类推, 以指数形式递增.
- 累计到一定 的重传次数, TCP 认为网络或者对端主机出现异常,强制关闭连接.
连接管理机制。正常情况下,TCP要经过三次握手建立连接,四次挥手断开连接。
滑动窗口
对于确认应答策略,对每个发送的数据段,都要给一个ACK确认应答,收到ACK后再发送下一个数据段,这样有一个比较大的缺点,性能较差,尤其是数据往返时间较长的时候。
滑动窗口是一种流量控制技术。早期的网络通信中,通信双方不会考虑网络的拥挤情况直接发送数据。由于大家不知道网络拥塞状况,同时发送数据,导致中间节点阻塞掉包,谁也发不了数据,所以就有了滑动窗口机制来解决此问题。滑动窗口协议是用来改善吞吐量的一种技术,即容许发送方在接收任何应答之前传送附加的包。接收方告诉发送方在某一时刻能送多少包(称窗口尺寸)。
一发一收的方式性能较低,那么一次发送多条数据,就可以大大提高性能(其实是多个段的等待时间重叠在一起了)
TCP 中采用滑动窗口来进行传输控制,滑动窗口的大小意味着接收方还有多大的缓冲区可以用于 接收数据 。发送方可以通过滑动窗口的大小来确定应该发送多少字节的数据 。当滑动窗口为 0 时,发送方一般不能再发送数据报。滑动窗口是 TCP 中实现诸如 ACK 确认、流量控制、拥塞控制的承载结构。
可以把窗口理解为缓冲区的大小;滑动窗口的大小会随着发送数据和接收数据而变化;通信双方都有发送缓冲区和接收缓冲区;
- 窗口大小指的是无需等待确认应答而可以继续发送数据的最大值. 如发送窗口大小4000 个字节(四个段).
- 发送前四个段的时候, 不需要等待任何 ACK, 直接发送;
- 收到第一个 ACK 后, 滑动窗口向后移动, 继续发送第五个段的数据; 依次类推;
- 操作系统内核为了维护这个滑动窗口, 需要开辟发送缓冲区 来记录当前还有哪些数据没有应答; 只有确认应答过的数据, 才能从缓冲区删掉;
- 窗口越大,则网络吞吐率越高;
如果出现丢包,如何进行重传?这里有两种情况;
情况一:数据包已经抵达,ACK确认应答丢失了。
这种情况下,部分ACK丢了并不要紧,因为可以通过后续的ACK进行确认;
情况二:数据包就直接丢了。
- 当某一段报文段丢失之后, 发送端会一直收到 1001 这样的 ACK, 就像是在提醒发送端"我想要的是 1001"一样;
- 如果发送端主机连续三次收到了同样一个"1001" 这样的应答, 就会将对应的数据 1001 - 2000 重新发送;
- 这个时候接收端收到了 1001 之后, 再次返回的 ACK 就是 7001 了(因为 2001 -7000)接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中;
- 这种机制被称为"高速重发控制"(也叫"快重传").

流量控制
接收端处理数据的速度是有限的,如果发送端发的太快,导致接收端的缓冲区被打满,这个时候如果发送端继续发送,就会造成丢包,继而引起丢包重传等等一系列连锁反应。(以上滑动窗口是发送的大小,提升性能,,
因此TCP支持根据接收端的处理能力,来决定发送端的发送速度,这个机制就叫做流量控制
- 接收端将自己可以接收的缓冲区大小放入 TCP 首部中的"窗口大小" 字段, 通过 ACK 端通知发送端;
- 窗口大小字段越大, 说明网络的吞吐量越高;
- 接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端;
- 发送端接受到这个窗口之后, 就会减慢自己的发送速度;
- 如果接收端缓冲区满了, 就会将窗口置为 0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端.
接收端如何把窗口大小告诉发送端呢? 回忆我们的 TCP 首部中, 有一个 16 位窗口字段,
就是存放了窗口大小信息;
那么问题来了, 16位数字最大表示 65535, 那么TCP窗口最大就是 65535 字节么?
实际上, TCP首部40字节选项中还包含了一个窗口扩大因子M, 实际窗口大小是 窗口
字段的值左移M位
拥塞控制
虽然TCP有了滑动窗口,能够可靠高效的发送大量数据,但是如果在刚开始阶段就发送大量的数据,仍可能引发问题。
因为网络上有很多计算机,可能当前的网络状态已经比较拥堵,再不清楚当前网络情况下,贸然发送大量的数据,很有可能引起雪上加霜。。
TCP引入慢启动机制,先发少量数据,探探路,摸清当前网络拥堵状态,再决定按照多大的速度传输数据;
此处引入一个概念称为拥塞窗口
发送开始的时候, 定义拥塞窗口大小为 1;
每次收到一个 ACK 应答, 拥塞窗口加 1;
每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口;
像上面这样的拥塞窗口增长速度, 是指数级别的,
为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍.
此处引入一个叫做慢启动的阈值
"慢启动" 只是指初使时慢, 但是增长速度非常快.
当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方
当 TCP 开始启动的时候, 慢启动阈值等于窗口最大值;
在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回 1;
少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞;
当 TCP 通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降;
拥塞控制归根结底是 TCP 协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案.
网络错综复杂,在这个复杂的网络中,很少有两台主机是直接相连。尽管如此,我们还是可以通过网络与其他主机通信,这是为什么?因为我们发送到网络中的数据,当达到网络中的一个节点时(假设是路由器),它会根据数据包含的地址,帮我们将数据转发到离目的地更近的路由器,或直接转发到目的地。但是,这些路由器不是直接就可以转发的,它们需要先将接收到的数据放入自己的内存(可能还要做一些处理),再从中取出进行转发。
路由器的内存是有限的,若同一时间到达某个路由器的数据太多,这个路由器将无法接收所有的数据,只能将一部分丢弃;或者同一台路由器数据太多,后面到达的数据将要等待较长的时间才会被转发。网络中的数据太多,导致某个路由器处理不过来或处理地太慢,这就是网络拥塞。若是对于TCP这种有重传机制的传输协议,当发生数据丢失时,重传数据将延长数据到达的时间;同时,高频率的重传,也将导致网络的拥塞得不到缓解。拥塞控制,就是在网络中发生拥塞时,减少向网络中发送数据的速度,防止造成恶性循环;同时在网络空闲时,提高发送数据的速度,最大限度地利用网络资源。
拥塞:随着网络中的主机增加其发送速率并使网络变得十分拥挤,此时会经常发生丢包现象,导致网络的传输效率急剧降低。分组的超时重传通常被作为网络拥塞的标志。如果不对网络拥塞进行控制,整个网络的吞吐量将随着输入负荷的增大而下降,降低网络的传输效率,如下图:
TCP的4种拥塞控制算法 (慢开始、拥塞避免、快重传、快恢复)
慢启动
TCP 在刚建⽴连接完成后,⾸先是有个慢启动的过程,这个慢启动的意思就是⼀点⼀点的提⾼发送数据包的数量。慢启动的算法规则:当发送⽅每收到⼀个 ACK,拥塞窗⼝ cwnd 的⼤⼩就会加 1。
连接建⽴完成后,⼀开始初始化 cwnd = 1 ,表示可以传⼀个 MSS ⼤⼩的数据。
当收到⼀个 ACK 确认应答后,cwnd 增加 1,于是⼀次能够发送 2 个
当收到 2 个的 ACK 确认应答后, cwnd 增加 2,于是就可以⽐之前多发2 个,所以这⼀次能够发送 4 个
当这 4 个的 ACK 确认到来的时候,每个确认 cwnd 增加 1, 4 个确认 cwnd 增加 4,于是就可以⽐之前多发 4
个,所以这⼀次能够发送 8 个。
可以看出慢启动算法,发包的个数是指数性的增⻓。有⼀个叫慢启动⻔限 ssthresh (slow start threshold)状态变量。
当 cwnd < ssthresh 时,使⽤慢启动算法。
当 cwnd >= ssthresh 时,就会使⽤「拥塞避免算法」。
拥塞避免
前⾯说道,当拥塞窗口 cwnd 「超过」慢启动门限 ssthresh 就会进⼊拥塞避免算法。
⼀般来说 ssthresh 的大小是 65535 字节。那么进入拥塞避免算法后,它的规则是每当收到⼀个 ACK 时,cwnd 增加 1/cwnd。接上前⾯的慢启动的栗⼦,现假定 ssthresh 为 8 :
当 8 个 ACK 应答确认到来时,每个确认增加 1/8,8 个 ACK 确认 cwnd ⼀共增加 1,于是这⼀次能够发送 9个 MSS ⼤⼩的数据,变成了线性增⻓。
拥塞避免算法就是将原本慢启动算法的指数增⻓变成了线性 增⻓,还是增⻓阶段,但是增⻓速度缓慢了⼀些。
快重传
当⽹络出现拥塞,也就是会发⽣数据包重传,重传机制主要有两种:超时重传、快速重传。
超时重传之前的总结中有介绍过,此处只说一下快速重传。「快速重传算法」。当接收⽅发现丢了⼀个中间包的时候,发送三次前⼀个包的ACK,于是发送端就会快速地重传,不必等待超时再重传。
TCP 认为这种情况不严,因为⼤部分没丢,只丢了⼀⼩部分,则 ssthresh 和 cwnd 变化如下: cwnd = cwnd/2 ,也就是设置为原来的⼀半; ssthresh = cwnd ;
快恢复
快速重传和快速恢复算法⼀般同时使⽤,快速恢复算法是认为,你还能收到 3 个᯿复 ACK 说明⽹络也不那么糟糕,所以没有必要像 RTO 超时那么强烈。进⼊快速恢复之前, cwnd 和 ssthresh 已被更新了:cwnd = cwnd/2 ,也就是设置为原来的⼀半;ssthresh = cwnd ; 快速恢复算法如下:
拥塞窗⼝ cwnd = ssthresh + 3 ( 3 的意思是确认有 3 个数据包被收到了);
重传丢失的数据包;
如果再收到重复的 ACK,那么 cwnd 增加 1;
如果收到新数据的 ACK 后,把 cwnd 设置为第⼀步中的 ssthresh 的值,原因是该 ACK 确认了新的数据,说
明从 duplicated ACK 时的数据都已收到,该恢复过程已经结束,可以回到恢复之前的状态了,也即再次进⼊
拥塞避免状态;

延迟应答
如果接收数据的主机立刻返回ACK应答,这时候返回的窗口可能比较小
假设接收端缓冲区为 1M.一次收到了 500K 的数据; 如果立刻应答, 返回的窗口就是 500K;
但实际上可能处理端处理的速度很快, 10ms 之内就把 500K 数据从缓冲区消费掉了;
在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来;
如果接收端稍微等一会再应答, 比如等待 200ms 再应答, 那么这个时候返回的窗口大小就是 1M;
实际上就是延迟应答,慢点应答让接收端有空隙恢复过来 ,这样窗口就会大一些,下次能发送更多数据。
一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络
不拥塞的情况下尽量提高传输效率
但并非所有包都可以延迟应答;
- 数量限制: 每隔 N 个包就应答一次;
- 时间限制: 超过最大延迟时间就应答一次;
具体的数量和超时时间, 依操作系统不同也有差异;一般 N 取 2, 超时时间取 200ms;
捎带应答
延迟应答基础上,客户端服务端在应用层也是"一发一收",客户端给服务器发送,服务器给客户端应答,这时候ACK确认应答可以搭顺风车,和服务器的响应的数据什么的一起回到客户端
面向字节流
创建一个 TCP 的 socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区;
- 调用 write 时, 数据会先写入发送缓冲区中;
- 如果发送的字节数太长, 会被拆分成多个 TCP 的数据包发出;
- 如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去;
- 接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区;
- 然后应用程序可以调用 read 从接收缓冲区拿数据;
- 另一方面, TCP 的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做全双工
由于缓冲区的存在, TCP 程序的读和写不需要一一匹配, 例如:
- 写 100 个字节数据时, 可以调用一次 write 写 100 个字节, 也可以调用 100 次write, 每次写一个字节;
- 读 100 个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100 个字节, 也可以一次 read一个字节, 重复 100 次;
粘包问题
八戒吃馒头例子
- 首先要明确, 粘包问题中的"包"是指的应用层的数据包.
- 在 TCP 的协议头中, 没有如同 UDP一样的"报文长度" 这样的字段, 但是有一个序号这样的字段.
- 站在传输层的角度, TCP 是一个一个报文过来的. 按照序号排好序放在缓冲区中.
- 站在应用层的角度, 看到的只是一串连续的字节数据.
- 那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包.
那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界.
- 对于定长的包, 保证每次都按固定大小读取即可; 例如上面的 Request 结构, 是固定大小的, 那么就从缓冲区从头开始按 sizeof(Request)依次读取即可;
- 对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置;
- 对于变长的包, 还可以在包和包之间使用明确的分隔符 (应用层协议, 是程序猿
自己来定的, 只要保证分隔符不和正文冲突即可);
思考: 对于 UDP 协议来说, 是否也存在"粘包问题" 呢?
- 对于 UDP, 如果还没有上层交付数据, UDP 的报文长度仍然在. 同时, UDP 是一个一个把数据交付给应用层. 就有很明确的数据边界.
- 站在应用层的站在应用层的角度, 使用 UDP 的时候, 要么收到完整的 UDP 报文, 要么不收. 不会出现"半个"的情况.
TCP 异常情况
进程终止: 进程终止会释放文件描述符, 仍然可以发送 FIN. 和正常关闭没有什么区别.
机器重启: 和进程终止的情况相同.
机器掉电/网线断开: 接收端认为连接还在,一旦接收端有写入操作, 接收端发现连接已经不在了, 就会进行 reset. 即使没有写入操作, TCP 自己也内置了一个保活定时器, 会定期询问对方是否还在. 如果对方不在, 也会把连接释放.
另外, 应用层的某些协议, 也有一些这样的检测机制. 例如 HTTP 长连接中, 也会定期检测对方的状态. 例如 QQ, 在 QQ 断线之后, 也会定期尝试重新连接.


