目录
[1.1 理解协议](#1.1 理解协议)
[2.1 http协议](#2.1 http协议)
[2.2 HTTP的方法](#2.2 HTTP的方法)
[2.3 HTTP的状态码](#2.3 HTTP的状态码)
[2.4 HTTP常见Header](#2.4 HTTP常见Header)
[3.1 端口号](#3.1 端口号)
[3.1.1 端口号范围划分](#3.1.1 端口号范围划分)
[3.1.2 netstat](#3.1.2 netstat)
[3.1.3 认识知名端口号(Well-Know Port Number)](#3.1.3 认识知名端口号(Well-Know Port Number))
[3.2 UDP协议](#3.2 UDP协议)
[3.2.1 UDP协议端格式](#3.2.1 UDP协议端格式)
[3.2.2 UDP的特点](#3.2.2 UDP的特点)
[3.2.3 基于UDP的应用层协议](#3.2.3 基于UDP的应用层协议)
[3.3 TCP协议](#3.3 TCP协议)
[3.3.1 TCP协议段格式](#3.3.1 TCP协议段格式)
[3.3.2 确认应答(ACK)机制](#3.3.2 确认应答(ACK)机制)
[3.3.3 超时重传机制](#3.3.3 超时重传机制)
[3.3.4 连接管理机制](#3.3.4 连接管理机制)
[3.3.5 滑动窗口](#3.3.5 滑动窗口)
[3.3.6 流量控制](#3.3.6 流量控制)
[3.3.7 拥塞控制](#3.3.7 拥塞控制)
[3.3.8 延迟应答](#3.3.8 延迟应答)
[3.3.9 捎带应答](#3.3.9 捎带应答)
[3.4 面向字节流](#3.4 面向字节流)
[3.4.1 粘包问题](#3.4.1 粘包问题)
[4.5 TCP异常情况](#4.5 TCP异常情况)
1、协议的通俗理解
在之前的几篇文章中,我们一起看过一些关于linux中关于网络的系统调用,就已经可以写一个简易的服务器了,
那我们在别人面前提起网络,都会听到一个字眼叫做协议,在网络中的每一层中,都有协议,在上一篇文章中,我们也说过,协议就是两台主机在通信的时候,约定好的通信格式,多方都遵守这个通信格式来通信的话,就可以实现正确通信,可以拿到对方发给我的正确信息。
我们可以模拟一个协议,对协议进行一个通俗一点的理解
1.1 理解协议
我们可以写一个服务器版本的计算器,
由于呢,在服务器端和用户端之间进行通信,存在有一些问题,所以我们对问题先进行研究,
用户端发起请求,要计算这个式子的值,那用户端是不是要以某种格式发送,因为数据在网络中都是以字符串的形式进行传输的,那用户端向服务器端发送的数据格式是不是要被服务器端知道,这样才能解析出正确的式子,
服务器端计算完之后,将结果返回给用户端的时候,是不是也要以某种形式进行组织,客户端才能将数据进行正确解析。
所以,客户端就和服务器端形成一下约定:
(1)客户端发起的请求数据必须用空格将数据隔开,比如"x + y",x和+之间、+和y之间,必须存在一个空格,方便服务器端进行解析计算,
(2)服务器端返回的数据中,须存在计算状态码,若请求式子合理且可以进行运算,状态码置为0,否则置为1,并且,状态码和计算结果中间也要用空格隔开,如"0 10";
如上,这就是一个小小的协议约定,只不过是我们自己约定的,根据我们要设计的计算器服务定制的一套协议。
下面是关于服务器版本计算器的核心代码:
cpp
void calcullator(int serviseSock)
{
std::string inbuffer;
while (1)
{
// 接收字符流,写入inbuffer缓冲区中,
if (!cal::cal_server::Recv(serviseSock, inbuffer))
{
break;
}
// 进行反序列化,拿到运算符和运算数
std::size_t left = str.find(SPACE);
if (left == std::string::npos){
return false;
}
std::size_t right = str.rfind(SPACE);
if (right == std::string::npos){
std::cout << "输入格式有误" << std::endl;
return ;
}
int _x = atoi(str.substr(0,left).c_str());
int _y = atoi(str.substr(right + SPACE_LEN).c_str());
if(left + SPACE_LEN > str.size()) {
std::cout << "输入格式有误" << std::endl;
return;
}
char _op = str[left + SPACE_LEN];
// 进行运算,使用code接收返回码
int code = 0;
int result = calculate(_x,_y,_op,&code);
// 进行序列化
std::string str;
str += std::to_string(code);
str += SPACE;
str += std::to_string(result);
return str;
//进行发送
cal::cal_server::Send(serviseSock, str);
}
}
我们测试发现,这样是可以运行的,但是,这个程序其实还是存在漏洞的:
如果说,这个服务器被访问的很频繁,那么服务器端在进行读取的时候,就会有问题,这是因为在服务器所调用的系统接口底层,他会有一个收发缓冲区,如果请求过多,造成了堆积,那么上面写的代码就会导致数据的粘包问题,就是一个用户的请求和下一个用户的请求粘合了,读取太多,或者上一次读取太多,导致这一次只读取了一半,比如:"1+255-44100+" 、"200100" 、"-100"。
所以我们需要在制定一个协议:
我们需要在原本协议约定的基础上再加上能够区分一个报文是否为完整报文的信息:
"length/nx + y/n" 、"length/ncode result/n"
例如:"9/n100 + 100/n" 、 "5/n0 200/n"
length代表这个报文的长度,两个换行符中间的是报文,
如果在报文解析的时候,格式不符合协议约定,那么就需要重新读取缓冲区里的数据,不多拿,不少拿
下来我们进行修改实现
cpp
void calcullator(int serviseSock)
{
std::string inbuffer;
while (1)
{
// 接收字符流
if (!cal::cal_server::Recv(serviseSock, inbuffer))
{
break;
}
// 分析字符流,如果没有拿到完整报文,就对缓冲区不作修改,
// 如果缓冲区内不知一份报文,就只拿一份进行处理
std::string package = Decode(inbuffer);
if (package.empty())
{
continue;
}
// 拿到了一个完整的报文
// 进行反序列化
request req;
req.Deserialize(package);
// 进行运算
response res = calculate(req);
// 进行序列化
std::string res_string = res.Serialize();
res_string = Encode(res_string);
cal::cal_server::Send(serviseSock, res_string);
}
}
进行报文解析封装和包装的方法:
cpp
#include <iostream>
#include <string>
#include <cstring>
#define SPACE " "
#define SPACE_LEN strlen(SPACE)
#define SEP "\n"
#define SEP_LEN strlen(SEP)
std::string Decode(std::string & buffer) {
size_t pos = buffer.find(SEP);
if (pos == std::string::npos){
return "";
}
int len = atoi(buffer.substr(0, pos).c_str());
int surplus = buffer.size() - pos - 2 * SEP_LEN;
if (surplus >= len) {
//说明有完整的报文
buffer.erase(0,pos + SEP_LEN);
std::string str = buffer.substr(0,len);
buffer.erase(0,len + SEP_LEN);
return str;
}
return "";
}
std::string Encode(std::string & s) {
std::string new_package = std::to_string(s.size());
new_package += SEP;
new_package += s;
new_package += SEP;
return new_package;
}
class request{
public:
request(){}
request(int x,int y,char op):_x(x),_y(y),_op(op) {}
~request(){}
std::string Serialize() {
std::string str;
str += std::to_string(_x);
str += SPACE;
str += _op;
str += SPACE;
str += std::to_string(_y);
return str;
}
bool Deserialize(std::string &str) {
std::size_t left = str.find(SPACE);
if (left == std::string::npos){
return false;
}
std::size_t right = str.rfind(SPACE);
if (right == std::string::npos){
return false;
}
_x = atoi(str.substr(0,left).c_str());
_y = atoi(str.substr(right + SPACE_LEN).c_str());
if(left + SPACE_LEN > str.size()) {
return false;
}
_op = str[left + SPACE_LEN];
return true;
}
public:
int _x;
int _y;
char _op;
};
class response{
public:
response(){}
response(int code, int result):_code(code),_result(result) {}
~response(){}
std::string Serialize() {
std::string str;
str += std::to_string(_code);
str += SPACE;
str += std::to_string(_result);
return str;
}
bool Deserialize(std::string &str) {
std::size_t pos = str.find(SPACE);
if (pos == std::string::npos){
return false;
}
_code = atoi(str.substr(0,pos).c_str());
_result = atoi(str.substr(pos + SPACE_LEN).c_str());
return true;
}
public:
int _code;
int _result;
};
相信通过上面的例子,我们就对协议就有了稍微深刻一点的理解了。
2.应用层
2.1 http协议
在我们上网的时候,浏览器地址框内的地址前面,都会有http://或者https://的字符,这个就是我们在应用层中的一些协议了,就和上面我们举的例子差不多
认识URL
平时我们俗称的 "网址" 其实就是说的 URL
下面为了方便探讨http协议,我们可以写一个简易的http服务器,用以获取http的请求:
cpp
void httpServerRequest(int serviseSock)
{
std::string inbuffer;
if (!HttpServer::Recv(serviseSock, inbuffer))
{
exit(10);
}
std::cout << inbuffer << std::endl;
}
运行起来:
使用浏览器访问我们所写的服务器:
这样我们就获取了http的一个请求:
我们还可以通过抓包工具抓取我们刚刚的请求:
http请求:
首行: [方法] + [url] + [版本]
Header: 请求的属性, 冒号分割的键值对;每组属性之间使用\n分隔;遇到空行表示Header部分结束
Body: 空行后面的内容都是Body. Body允许为空字符串. 如果Body存在, 则在Header中会有一个Content-Length属性来标识Body的长度;
HTTP响应
首行: [版本号] + [状态码] + [状态码解释]
Header: 请求的属性, 冒号分割的键值对;每组属性之间使用\n分隔;遇到空行表示Header部分结束
Body: 空行后面的内容都是Body. Body允许为空字符串. 如果Body存在, 则在Header中会有一个
Content-Length属性来标识Body的长度; 如果服务器返回了一个html页面, 那么html页面内容就是在body中.
2.2 HTTP的方法
2.3 HTTP的状态码
最常见的状态码, 比如 200(OK), 404(Not Found), 403(Forbidden), 302(Redirect, 重定向), 504(Bad Gateway)
2.4 HTTP常见Header
Content-Type: 数据类型(text/html等)
Content-Length: Body的长度
Host: 客户端告知服务器, 所请求的资源是在哪个主机的哪个端口上;
User-Agent: 声明用户的操作系统和浏览器版本信息;
referer: 当前页面是从哪个页面跳转过来的;
location: 搭配3xx状态码使用, 告诉客户端接下来要去哪里访问;
Cookie: 用于在客户端存储少量信息. 通常用于实现会话(session)的功能;
3、传输层
负责数据能够从发送端传输接收端.
3.1 端口号
端口号(Port)标识了一个主机上进行通信的不同的应用程序;
3.1.1 端口号范围划分
0 - 1023: 知名端口号, HTTP, FTP, SSH等这些广为使用的应用层协议, 他们的端口号都是固定的.
1024 - 65535: 操作系统动态分配的端口号. 客户端程序的端口号, 就是由操作系统从这个范围分配的.
在TCP/IP协议中, 用 "源IP", "源端口号", "目的IP", "目的端口号", "协议号" 这样一个五元组来标识一个通信(可以通过netstat -n查看);
3.1.2 netstat
netstat是一个用来查看网络状态的重要工具.
语法:netstat [选项]
功能:查看网络状态
常用选项:
n 拒绝显示别名,能显示数字的全部转化成数字
l 仅列出有在 Listen (监听) 的服務状态
p 显示建立相关链接的程序名
t (tcp)仅显示tcp相关选项
u (udp)仅显示udp相关选项
a (all)显示所有选项,默认不显示LISTEN相关
pidof
在查看服务器的进程id时非常方便.
语法:pidof [进程名]
功能:通过进程名, 查看进程id
3.1.3 认识知名端口号(Well-Know Port Number)
有些服务器是非常常用的, 为了使用方便, 人们约定一些常用的服务器, 都是用以下这些固定的端口号:
ssh服务器, 使用22端口
ftp服务器, 使用21端口
telnet服务器, 使用23端口
http服务器, 使用80端口
https服务器, 使用443
执行下面的命令, 可以看到知名端口号
bash
cat /etc/services
3.2 UDP协议
3.2.1 UDP协议端格式
16位UDP长度, 表示整个数据报(UDP首部+UDP数据)的最大长度;
如果校验和出错, 就会直接丢弃;
3.2.2 UDP的特点
UDP传输的过程类似于寄信.
无连接: 知道对端的IP和端口号就直接进行传输, 不需要建立连接;
不可靠: 没有确认机制, 没有重传机制; 如果因为网络故障该段无法发到对方, UDP协议层也不会给应用层返回任何错误信息;
面向数据报: 不能够灵活的控制读写数据的次数和数量;
面向数据报
应用层交给UDP多长的报文, UDP原样发送, 既不会拆分, 也不会合并;
用UDP传输100个字节的数据:
如果发送端调用一次sendto, 发送100个字节, 那么接收端也必须调用对应的一次recvfrom, 接收100个字节; 而不能循环调用10次recvfrom, 每次接收10个字节;
UDP的缓冲区
UDP没有真正意义上的 发送缓冲区. 调用sendto会直接交给内核, 由内核将数据传给网络层协议进行后续的传输动作;
UDP具有接收缓冲区. 但是这个接收缓冲区不能保证收到的UDP报的顺序和发送UDP报的顺序一致; 如果缓冲区满了, 再到达的UDP数据就会被丢弃;
UDP的socket既能读, 也能写, 这个概念叫做 全双工
UDP使用注意事项
我们注意到, UDP协议首部中有一个16位的最大长度. 也就是说一个UDP能传输的数据最大长度是64K(包含UDP首部).
然而64K在当今的互联网环境下, 是一个非常小的数字.
如果我们需要传输的数据超过64K, 就需要在应用层手动的分包, 多次发送, 并在接收端手动拼装;
3.2.3 基于UDP的应用层协议
NFS: 网络文件系统
TFTP: 简单文件传输协议
DHCP: 动态主机配置协议
BOOTP: 启动协议(用于无盘设备启动)
DNS: 域名解析协议
当然, 也包括你自己写UDP程序时自定义的应用层协议;
3.3 TCP协议
TCP全称为 "传输控制协议(Transmission Control Protocol"). 人如其名, 要对数据的传输进行一个详细的控制;
3.3.1 TCP协议段格式
源/目的端口号: 表示数据是从哪个进程来, 到哪个进程去;
4位TCP报头长度: 表示该TCP头部有多少个32位bit(有多少个4字节); 所以TCP头部最大长度是15 * 4 = 60
6位标志位:
URG: 紧急指针是否有效
ACK: 确认号是否有效
PSH: 提示接收端应用程序立刻从TCP缓冲区把数据读走
RST: 对方要求重新建立连接; 我们把携带RST标识的称为复位报文段
SYN: 请求建立连接; 我们把携带SYN标识的称为同步报文段
FIN: 通知对方, 本端要关闭了, 我们称携带FIN标识的为结束报文段
16位校验和: 发送端填充, CRC校验. 接收端校验不通过, 则认为数据有问题. 此处的检验和不光包含TCP首部, 也包含TCP数据部分.
16位紧急指针: 标识哪部分数据是紧急数据;
3.3.2 确认应答(ACK)机制
TCP将每个字节的数据都进行了编号. 即为序列号.
每一个ACK都带有对应的确认序列号, 意思是告诉发送者, 我已经收到了哪些数据; 下一次你从哪里开始发.
3.3.3 超时重传机制
主机A发送数据给B之后, 可能因为网络拥堵等原因, 数据无法到达主机B;
如果主机A在一个特定时间间隔内没有收到B发来的确认应答, 就会进行重发;
但是, 主机A未收到B发来的确认应答, 也可能是因为ACK丢失了;
因此主机B会收到很多重复数据. 那么TCP协议需要能够识别出那些包是重复的包, 并且把重复的丢弃掉.这时候我们可以利用前面提到的序列号, 就可以很容易做到去重的效果.
最理想的情况下, 找到一个最小的时间, 保证 "确认应答一定能在这个时间内返回".
但是这个时间的长短, 随着网络环境的不同, 是有差异的.
如果超时时间设的太长, 会影响整体的重传效率;
如果超时时间设的太短, 有可能会频繁发送重复的包;
TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间.
Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进行控制, 每次判定超时重发的超时时间都是500ms的整数倍.
如果重发一次之后, 仍然得不到应答, 等待 2*500ms 后再进行重传.
如果仍然得不到应答, 等待 4*500ms 进行重传. 依次类推, 以指数形式递增.
累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接.
3.3.4 连接管理机制
在正常情况下, TCP要经过三次握手建立连接, 四次挥手断开连接
服务端状态转化:
[CLOSED -> LISTEN] 服务器端调用listen后进入LISTEN状态, 等待客户端连接;
[LISTEN -> SYN_RCVD] 一旦监听到连接请求(同步报文段), 就将该连接放入内核等待队列中, 并向客户端发送SYN确认报文.
[SYN_RCVD -> ESTABLISHED] 服务端一旦收到客户端的确认报文, 就进入ESTABLISHED状态, 可以进行读写数据了.
[ESTABLISHED -> CLOSE_WAIT] 当客户端主动关闭连接(调用close), 服务器会收到结束报文段, 服务器返回确认报文段并进入CLOSE_WAIT;
[CLOSE_WAIT -> LAST_ACK] 进入CLOSE_WAIT后说明服务器准备关闭连接(需要处理完之前的数据); 当服务器真正调用close关闭连接时, 会向客户端发送FIN, 此时服务器进入LAST_ACK状态, 等待最后一个ACK到来(这个ACK是客户端确认收到了FIN)
[LAST_ACK -> CLOSED] 服务器收到了对FIN的ACK, 彻底关闭连接.
客户端状态转化:
[CLOSED -> SYN_SENT] 客户端调用connect, 发送同步报文段;
[SYN_SENT -> ESTABLISHED] connect调用成功, 则进入ESTABLISHED状态, 开始读写数据;
[ESTABLISHED -> FIN_WAIT_1] 客户端主动调用close时, 向服务器发送结束报文段, 同时进入
FIN_WAIT_1;
[FIN_WAIT_1 -> FIN_WAIT_2] 客户端收到服务器对结束报文段的确认, 则进入FIN_WAIT_2, 开始等待服务器的结束报文段;
[FIN_WAIT_2 -> TIME_WAIT] 客户端收到服务器发来的结束报文段, 进入TIME_WAIT, 并发出LAST_ACK;
[TIME_WAIT -> CLOSED] 客户端要等待一个2MSL(Max Segment Life, 报文最大生存时间)的时间, 才会进入CLOSED状态.
3.3.5 滑动窗口
收到第一个ACK后, 滑动窗口向后移动, 继续发送第五个段的数据; 依次类推;
操作系统内核为了维护这个滑动窗口, 需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答; 只有确认应答过的数据, 才能从缓冲区删掉;
窗口越大, 则网络的吞吐率就越高;
那么如果出现了丢包, 如何进行重传? 这里分两种情况讨论.
情况一: 数据包已经抵达, ACK被丢了.
这种情况下, 部分ACK丢了并不要紧, 因为可以通过后续的ACK进行确认;
情况二: 数据包就直接丢了
当某一段报文段丢失之后, 发送端会一直收到 1001 这样的ACK, 就像是在提醒发送端 "我想要的是 1001"一样;
如果发送端主机连续三次收到了同样一个 "1001" 这样的应答, 就会将对应的数据 1001 - 2000 重新发送;
这个时候接收端收到了 1001 之后, 再次返回的ACK就是7001了(因为2001 - 7000)接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中;
这种机制被称为 "高速重发控制"(也叫 "快重传").
3.3.6 流量控制
接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送,就会造成丢包, 继而引起丢包重传等等一系列连锁反应.
因此TCP支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做流量控制(Flow Control);
接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 "窗口大小" 字段, 通过ACK端通知发送端;
窗口大小字段越大, 说明网络的吞吐量越高;
接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端;
发送端接受到这个窗口之后, 就会减慢自己的发送速度;
如果接收端缓冲区满了, 就会将窗口置为0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端.
接收端如何把窗口大小告诉发送端呢? 回忆我们的TCP首部中, 有一个16位窗口字段, 就是存放了窗口大小信息;
那么问题来了, 16位数字最大表示65535, 那么TCP窗口最大就是65535字节么?
实际上, TCP首部40字节选项中还包含了一个窗口扩大因子M, 实际窗口大小是 窗口字段的值左移 M 位;
3.3.7 拥塞控制
虽然TCP有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍然可能引发问题.
因为网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据,是很有可能引起雪上加霜的.
TCP引入 慢启动 机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据;
此处引入一个概念程为拥塞窗口
发送开始的时候, 定义拥塞窗口大小为1;
每次收到一个ACK应答, 拥塞窗口加1;
每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口;
像上面这样的拥塞窗口增长速度, 是指数级别的. "慢启动" 只是指初使时慢, 但是增长速度非常快.
为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍.
此处引入一个叫做慢启动的阈值
当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长
当TCP开始启动的时候, 慢启动阈值等于窗口最大值;
在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回1;
少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞;
当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降;
拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案.
3.3.8 延迟应答
如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口可能比较小.
假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K;
但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了;
在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来;
如果接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M;
一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率;
那么所有的包都可以延迟应答么? 肯定也不是;
数量限制: 每隔N个包就应答一次;
时间限制: 超过最大延迟时间就应答一次;
具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms;
3.3.9 捎带应答
在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 "一发一收" 的. 意味着客户端给服务器说了 "How are you", 服务器也会给客户端回一个 "Fine, thank you";
那么这个时候ACK就可以搭顺风车, 和服务器回应的 "Fine, thank you" 一起回给客户端
3.4 面向字节流
创建一个TCP的socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区;
调用write时, 数据会先写入发送缓冲区中;
如果发送的字节数太长, 会被拆分成多个TCP的数据包发出;
如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去;
接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区;
然后应用程序可以调用read从接收缓冲区拿数据;
另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做 全双工
由于缓冲区的存在, TCP程序的读和写不需要一一匹配, 例如:
写100个字节数据时, 可以调用一次write写100个字节, 也可以调用100次write, 每次写一个字节;
读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次read一个字节, 重复100次;
3.4.1 粘包问题
首先要明确, 粘包问题中的 "包" , 是指的应用层的数据包.
在TCP的协议头中, 没有如同UDP一样的 "报文长度" 这样的字段, 但是有一个序号这样的字段.
站在传输层的角度, TCP是一个一个报文过来的. 按照序号排好序放在缓冲区中.
站在应用层的角度, 看到的只是一串连续的字节数据.
那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包.
那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界.
对于定长的包, 保证每次都按固定大小读取即可; 例如上面的Request结构, 是固定大小的, 那么就从缓冲区从头开始按sizeof(Request)依次读取即可;
对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置;
对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序猿自己来定的, 只要保证分隔符不和正文冲突即可);
4.5 TCP异常情况
进程终止: 进程终止会释放文件描述符, 仍然可以发送FIN. 和正常关闭没有什么区别.
机器重启: 和进程终止的情况相同.
机器掉电/网线断开: 接收端认为连接还在, 一旦接收端有写入操作, 接收端发现连接已经不在了, 就
会进行reset. 即使没有写入操作, TCP自己也内置了一个保活定时器, 会定期询问对方是否还在. 如果对方不在, 也会把连接释放.
另外, 应用层的某些协议, 也有一些这样的检测机制. 例如HTTP长连接中, 也会定期检测对方的状态. 例如QQ, 在QQ断线之后, 也会定期尝试重新连接.