1. TCP到底是干什么的?
想象一下:你要给朋友寄一箱积木。
UDP的方式:把一整箱扔过去。快,但中途丢了、碎了,你都不知道。
TCP的方式:把积木一个个编好号,寄一个,等对方说"收到了",再寄下一个。慢了,但确保一个不少,顺序还不会乱。
所以TCP就干三件事:
-
保证不丢
-
保证不乱序
-
控制速度
2. TCP的"黑科技"
2.1 连接------不是真的连了根线
很多人误解"建立连接"是双方拉了一根专属电线。
其实不是。TCP的"连接"只是在两端各记一笔:"我跟那谁正在通信"。
就像你俩约好暗号,每次说话都带暗号,别人插话暗号不对,就没人理他。
三次握手其实就是互相确认暗号的过程。
2.2 确认应答机制(安全机制)
TCP将每个字节的数据都进行了编号。即为序列号。每一个ACK都带有对应的确认序列号,意思是告诉发送者,我已经收到了哪些数据;下一次你从哪里开始发。
举个🌰
你把包裹1递给顺丰小哥,他当场扫描入录,系统立刻给你发来"包裹1已揽件"的短信,你确认签收后才开始打包包裹2;而不是像普通快递那样把10个包裹全丢给他就再也不管
2.3 超时重传机制(安全机制)

- 主机A发送数据给B之后,可能因为网络拥堵等原因,数据无法到达主机B;
- 如果主机A在一个特定时间间隔内没有收到B发来的确认应答,就会进行重发;
但是,主机A未收到B发来的确认应答,也可能是因为ACK丢失了;

因此主机B会收到很多重复数据。那么TCP协议需要能够识别出那些包是重复的包,并且把重复的丢弃掉。
这时候我们可以利用前面提到的序列号,就可以很容易做到去重的效果。
那么,如果超时的时间如何确定?
- 最理想的情况下,找到一个最小的时间,保证 "确认应答一定能在这个时间内返回"。
- 但是这个时间的长短,随着网络环境的不同,是有差异的。
- 如果超时时间设的太长,会影响整体的重传效率;
- 如果超时时间设的太短,有可能会频繁发送重复的包;
TCP为了保证无论在任何环境下都能比较高性能的通信,因此会动态计算这个最大超时时间。
- Linux中(BSD Unix和Windows也是如此),超时以500ms为一个单位进行控制,每次判定超时重发的超时时间都是500ms的整数倍。
- 如果重发一次之后,仍然得不到应答,等待 2*500ms 后再进行重传。
- 如果仍然得不到应答,等待 4*500ms 进行重传。依次类推,以指数形式递增。
- 累计到一定的重传次数,TCP认为网络或者对端主机出现异常,强制关闭连接。
举个🌰
你给山里守林员老张寄配件,山路难行且路况不稳定。你每次寄出后并不立即重寄,而是设一个"预期回信时间"------如果到期没收到老张的"已收到"口信,你不确定是包裹丢了还是回信丢了,于是再寄一份,并且把下次等待时间翻倍。第一次等5小时,第二次等10小时,第三次等20小时。翻倍是因为路况可能比预想的更差,给系统留出更多缓冲;连续几次没回音,你就判断路彻底断了,不再白费力气。这就是TCP动态超时与指数退避------用试探性等待适应未知网络,既避免过早重传造成拥堵,也不因死等而延误。
2.4 连接管理机制(安全机制)
在正常情况下,TCP要经过三次握手建立连接,四次挥手断开连接

服务端状态转化:
-
CLOSED -\> LISTEN\] 服务器端调用listen后进入LISTEN状态,等待客户端连接;
-
SYN_RCVD -\> ESTABLISHED\] 服务端一旦收到客户端的确认报文,就进入ESTABLISHED状态,可以进行读写数据了。
-
CLOSE_WAIT -\> LAST_ACK\] 进入CLOSE_WAIT后说明服务器准备关闭连接(需要处理完之前的数据);当服务器真正调用close关闭连接时,会向客户端发送FIN,此时服务器进入LAST_ACK状态,等待最后一个ACK到来(这个ACK是客户端确认收到了FIN)
客户端状态转化:
-
CLOSED -\> SYN_SENT\] 客户端调用connect,发送同步报文段;
-
ESTABLISHED -\> FIN_WAIT_1\] 客户端主动调用close时,向服务器发送结束报文段,同时进入FIN_WAIT_1;
-
FIN_WAIT_2 -\> TIME_WAIT\] 客户端收到服务器发来的结束报文段,进入TIME_WAIT,并发出LAST_ACK;
- 间)的时间,才会进入CLOSED状态。
下图是TCP状态转换的一个汇总:

举个🌰
- 建立连接(三次握手)
总部拨通分公司电话,分公司接起并回问"能听到我吗",总部确认"能听到",双方确认线路畅通------这就是三次握手:不是单方面喊话,而是双向互验,确保谁都不会漏听。
- 正常数据传输(ESTABLISHED)
连接建立后,总部每报一项品名,分公司必须回一句"收到",总部才会继续报下一项------这不是啰嗦,而是TCP确认应答:没有回执,绝不继续。
- 客户端主动关闭(四次挥手)
总部说"我要挂了",分公司说"收到挂机请求,但我活还没干完";分公司干完活说"我也挂了",总部回"好的"------四次挥手不是谁想挂就立刻挂,而是双方确认彼此都没事了,才能干净利落地断线。
- 服务器主动关闭(场景反转)
假设分公司仓管先下班:
分公司先说要挂,总部说"等一下,我最后两行马上发完"------谁发起关闭不重要,重要的是双方都要给对方留足处理完手头工作的缓冲,再用最后一声"收到"画上句号。
- TIME_WAIT的意义
TIME_WAIT是挂电话前的两秒等待------不是恋战,而是怕自己最后那句"收到"对方没听清;多等两秒,若对方追问还能立刻补一句,确保对方不带着疑虑断线。
2.5 滑动窗口(效率机制)
刚才我们讨论了确认应答策略,对每一个发送的数据段,都要给一个ACK确认应答。收到ACK后再发送下一个数据段。这样做有一个比较大的缺点,就是性能较差。尤其是数据往返的时间较长的时候。

既然这样一发一收的方式性能较低,那么我们一次发送多条数据,就可以大大的提高性能(其实是将多个段的等待时间重叠在一起了)。

- 窗口大小指的是无需等待确认应答而可以继续发送数据的最大值。上图的窗口大小就是4000个字节(四个段)。
- 发送前四个段的时候,不需要等待任何ACK,直接发送;
- 收到第一个ACK后,滑动窗口向后移动,继续发送第五个段的数据;依次类推;
- 操作系统内核为了维护这个滑动窗口,需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答;只有确认应答过的数据,才能从缓冲区删掉;
- 窗口越大,则网络的吞吐率就越高;
举个🌰
场景设定:出版社印刷厂与连锁书店的总部调拨
你 :出版社发货员(发送方)
顺丰小哥 :书店总部收货员(接收方)
卡车:每一个数据段你不必等第一辆车返程才开始装第二辆,而是一口气发满整条路上的"车道",每收到一辆车的"已送达"回执,就立刻补发一辆------窗口大小就是这条路上能同时跑的车数,窗口越大,路上的车越多,单位时间送到的书也越多。

那么如果出现了丢包,如何进行重传?这里分两种情况讨论。
情况一:数据包已经抵达,ACK被丢了。

这种情况下,部分ACK丢了并不要紧,因为可以通过后续的ACK进行确认;
举个🌰
3号车先到了,但书店的回执信在途中被风吹走了,你没收到。没关系,5分钟后4号车到了,书店发了"4号车已收,下一辆请发5号"------这封信里顺便也包含了"3号车我们也收到了"的信息。
情况二:数据包就直接丢了。

- 当某一段报文段丢失之后,发送端会一直收到 1001 这样的ACK,就像是在提醒发送端 "我想要的是 1001" 一样;
- 如果发送端主机连续三次收到了同样一个 "1001" 这样的应答,就会将对应的数据 1001 -2000 重新发送;
- 这个时候接收端收到了 1001 之后,再次返回的ACK就是7001了(因为2001 - 7000)接收端其实之前就已经收到了,被放到了接收端操作系统内核的接收缓冲区中;
举个🌰
你发了1-10号车,其中3号车半路爆胎,没到书店;但4、5、6号车陆续都到了。
书店每次收货都喊:"下一辆我要3号车!"(ACK=3)
你收到"要3号"的第一封,以为只是随口一问;
收到第二封"还是要3号",你开始警觉;
收到第三封"还是要3号"------你不再等超时,立刻补发3号车的补货。3号车补发到达后,书店把3号和已经堆在仓库的4-6号一起入库,然后直接告诉你:"1-6号全齐了,下一辆发7号。"(ACK=7)
这种机制被称为 "高速重发控制"(也叫 "快重传")。
2.6 流量控制(安全机制)
接收端处理数据的速度是有限的。如果发送端发的太快,导致接收端的缓冲区被打满,这个时候如果发送端继续发送,就会造成丢包,继而引起丢包重传等等一系列连锁反应。
因此TCP支持根据接收端的处理能力,来决定发送端的发送速度。这个机制就叫做流量控制(FlowControl);
- 接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 "窗口大小" 字段,通过ACK端通知发送端;
- 窗口大小字段越大,说明网络的吞吐量越高;
- 接收端一旦发现自己的缓冲区快满了,就会将窗口大小设置成一个更小的值通知给发送端;
- 发送端接受到这个窗口之后,就会减慢自己的发送速度;
- 如果接收端缓冲区满了,就会将窗口置为0;这时发送方不再发送数据,但是需要定期发送一个窗口探测数据段,使接收端把窗口大小告诉发送端。
举个🌰
后厨炒菜师傅(发送方)不是拼命颠勺往出菜口硬塞,而是随时听前台点餐员小哥(接收方)喊"窗口还剩几个空盘"------他喊"出菜口只能摆七盘,现在满了快停火"(窗口=0),师傅就立刻关火;每隔一会儿师傅探出头问"现在有空位了吗"(窗口探测),小哥清出两盘端给客人就回喊"现在能摆两盘了"(窗口更新);
中午客流高峰小哥把长桌换成小桌,出菜口容量从十盘降到四盘(窗口动态收缩),师傅立刻撤掉两口锅改慢火候;

接收端如何把窗口大小告诉发送端呢?回忆我们的TCP首部中,有一个16位窗口字段,就是存放了窗口大小信息;
那么问题来了,16位数字最大表示65535,那么TCP窗口最大就是65535字节么?
实际上,TCP首部40字节选项中还包含了一个窗口扩大因子M,实际窗口大小是 窗口字段的值左移 M位;
举个🌰
上宴会厅百人团餐,小哥指着头顶告示牌说"牌上写3,但角落画了箭头代表左移两位,实际能摆12盘"(窗口扩大因子)
2.7 拥塞控制(安全机制)
虽然TCP有了滑动窗口这个大杀器,能够高效可靠的发送大量的数据。但是如果在刚开始阶段就发送大量的数据,仍然可能引发问题。
因为网络上有很多的计算机,可能当前的网络状态就已经比较拥堵。在不清楚当前网络状态下,贸然发送大量的数据,是很有可能引起雪上加霜的。
TCP引入 慢启动 机制,先发少量的数据,探探路,摸清当前的网络拥堵状态,再决定按照多大的速度传输数据;

- 此处引入一个概念程为拥塞窗口
- 发送开始的时候,定义拥塞窗口大小为1;
- 每次收到一个ACK应答,拥塞窗口加1;
- 每次发送数据包的时候,将拥塞窗口和接收端主机反馈的窗口大小做比较,取较小的值作为实际发送的窗口;
像上面这样的拥塞窗口增长速度,是指数级别的。"慢启动" 只是指初使时慢,但是增长速度非常快。
- 为了不增长的那么快,因此不能使拥塞窗口单纯的加倍。
- 此处引入一个叫做慢启动的阈值
- 当拥塞窗口超过这个阈值的时候,不再按照指数方式增长,而是按照线性方式增长

- 当TCP开始启动的时候,慢启动阈值等于窗口最大值;
- 在每次超时重发的时候,慢启动阈值会变成原来的一半,同时拥塞窗口置回1;
少量的丢包,我们仅仅是触发超时重传;大量的丢包,我们就认为网络拥塞;
当TCP通信开始后,网络吞吐量会逐渐上升;随着网络发生拥堵,吞吐量会立刻下降;
拥塞控制,归根结底是TCP协议想尽可能快的把数据传输给对方,但是又要避免给网络造成太大压力的折中方案。
TCP拥塞控制这样的过程,就好像 热恋的感觉
举个🌰
追求者(发送方)不敢上来就刷屏,而是从一条"在吗?"(拥塞窗口=1)开始,每收到一次回复就加倍发送------2条、4条、8条(指数增长);发到第16条时发现她开始回"嗯""哦"但不展开话题,于是你划了条线(慢启动阈值=16),此后每条只比上一条多1,不再加倍(线性增长);某天你发了20条却三小时没回音(超时重传),立刻意识到她身边可能有新欢或闺蜜在施加压力(网络拥塞),于是把阈值砍到8(原阈值一半),自己缩回一条"在吗?"重新开始(拥塞窗口归1);
2.8 延迟应答(效率机制)
如果接收数据的主机立刻返回ACK应答,这时候返回的窗口可能比较小。
- 假设接收端缓冲区为1M。一次收到了500K的数据;如果立刻应答,返回的窗口就是500K;
- 但实际上可能处理端处理的速度很快,10ms之内就把500K数据从缓冲区消费掉了;
- 在这种情况下,接收端处理还远没有达到自己的极限,即使窗口再放大一些,也能处理过来;
- 如果接收端稍微等一会再应答,比如等待200ms再应答,那么这个时候返回的窗口大小就是1M;
一定要记得,窗口越大,网络吞吐量就越大,传输效率就越高。我们的目标是在保证网络不拥塞的情况下尽量提高传输效率;
那么所有的包都可以延迟应答么?肯定也不是;
- 数量限制:每隔N个包就应答一次;
- 时间限制:超过最大延迟时间就应答一次;
具体的数量和超时时间,依操作系统不同也有差异;一般N取2,超时时间取200ms;

2.9 捎带应答(效率机制)
在延迟应答的基础上,我们发现,很多情况下,客户端服务器在应用层也是 "一发一收" 的。意味着客户端给服务器说了 "How are you",服务器也会给客户端回一个 "Fine, thank you";
那么这个时候ACK就可以搭顺风车,和服务器回应的 "Fine,thank you" 一起回给客户端

2.10 其他特性:面向字节流
2.11 其他特性:缓冲区
2.12 其他特性:大小限制
创建一个TCP的socket,同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区;
- 调用write时,数据会先写入发送缓冲区中;
- 如果发送的字节数太长,会被拆分成多个TCP的数据包发出;
- 如果发送的字节数太短,就会先在缓冲区里等待,等到缓冲区长度差不多了,或者其他合适的时机发送出去;
- 接收数据的时候,数据也是从网卡驱动程序到达内核的接收缓冲区;
- 然后应用程序可以调用read从接收缓冲区拿数据;
- 另一方面,TCP的一个连接,既有发送缓冲区,也有接收缓冲区,那么对于这一个连接,既可以读数据,也可以写数据。这个概念叫做 全双工.
由于缓冲区的存在,TCP程序的读和写不需要一一匹配,例如:
- 写100个字节数据时,可以调用一次write写100个字节,也可以调用100次write,每次写一个字节;
- 读100个字节数据时,也完全不需要考虑写的时候是怎么写的,既可以一次read 100个字节,也可以一次read一个字节,重复100次;
2.13 粘包问题
- 首先要明确,粘包问题中的 "包" ,是指的应用层的数据包。
- 在TCP的协议头中,没有如同UDP一样的 "报文长度" 这样的字段,但是有一个序号这样的字段。
- 站在传输层的角度,TCP是一个一个报文过来的。按照序号排好序放在缓冲区中。
- 站在应用层的角度,看到的只是一串连续的字节数据。
- 那么应用程序看到了这么一连串的字节数据,就不知道从哪个部分开始到哪个部分,是一个完整的应用层数据包。
那么如何避免粘包问题呢?归根结底就是一句话,明确两个包之间的边界。
- 对于定长的包,保证每次都按固定大小读取即可;例如上面的Request结构,是固定大小的,那么就从缓冲区从头开始按sizeof(Request)依次读取即可;
- 对于变长的包,可以在包头的位置,约定一个包总长度的字段,从而就知道了包的结束位置;
- 对于变长的包,还可以在包和包之间使用明确的分隔符(应用层协议,是程序猿自己来定的,只要保证分隔符不和正文冲突即可);
思考:对于UDP协议来说,是否也存在 "粘包问题" 呢?
- 对于UDP,如果还没有上层交付数据,UDP的报文长度仍然在。同时,UDP是一个一个把数据交付给应用层。就有很明确的数据边界。
- 站在应用层的站在应用层的角度,使用UDP的时候,要么收到完整的UDP报文,要么不收。不会出现"半个"的情况。
3. TCP异常情况
进程终止:进程终止会释放文件描述符,仍然可以发送FIN。和正常关闭没有什么区别。
机器重启:和进程终止的情况相同。
机器掉电/网线断开:接收端认为连接还在,一旦接收端有写入操作,接收端发现连接已经不在了,就会进行reset。即使没有写入操作,TCP自己也内置了一个保活定时器,会定期询问对方是否还在。如果对方不在,也会把连接释放。
另外,应用层的某些协议,也有一些这样的检测机制。例如HTTP长连接中,也会定期检测对方的状态。例如QQ,在QQ断线之后,也会定期尝试重新连接。
4. 总结TCP的核心模块
| 分类 | 机制 | 核心作用 | 一句话原理 |
|---|---|---|---|
| 可靠性 | 校验和 | 数据验伤 | 发送时算一遍,接收时再算一遍,对不上就丢弃 |
| 序列号 | 按序到达/去重 | 给每个字节编号,乱序了就排队,重复的就扔掉 | |
| 确认应答(ACK) | 告知收到 | 收到数据必须回一张"收到了"的回执 | |
| 超时重发 | 弥补丢失 | 没收到回执就等,等不到就重发,且等待时间翻倍 | |
| 连接管理 | 建立/关闭 | 三次握手双向确认,四次挥手彼此道别 | |
| 流量控制 | 接收方扛不住 | 接收方喊"慢点,我缓冲区快满了",发送方立刻减速 | |
| 拥塞控制 | 网络扛不住 | 网络堵了我就降速,从一条"在吗"重新试探 | |
| 提高性能 | 滑动窗口 | 批量发货 | 不用等回执再发下一包,一次发满整条路 |
| 快速重传 | 丢包早发现 | 连续三次收到同一个"我要1001",不等超时立刻补发 | |
| 延迟应答 | 顺带捎话 | 不急着回ACK,等有数据要发时一起捎过去 | |
| 捎带应答 | 省一趟车 | 把"收到了"塞在发往对方的数据包里,不单独跑一趟 | |
| 其他 | 超时重传定时器 | 等回执的闹钟 | 发完数据开始计时,闹钟响了还没ACK就重传 |
| 保活定时器 | 查岗 | 连接长时间空闲时发个探针:"你还活着吗?" | |
| TIME_WAIT定时器 | 挂电话后的2秒 | 最后一声ACK发完不立刻断,等2MSL防对方没听清 |