Linux下使用iouring实现一个tcp服务

今年一直没怎么写东西,看了一下上一篇文章,都过去半年了。前段时间一直想写一点redis的东西,但是一直没有时间去研读源码,所以就一直没有写。 最近有时间,看了一点 iouring 的东西,就写了一篇文章,介绍了一下 iouring 的基本使用,实现了一个简单的

很早就听说过 iouring ,但是一直没有时间学习。最近有时间就找了一些资料,学习了一下,写了一个简单的例子,实现了一个简单的tcp服务。

这篇文章主要介绍了如何使用 iouring 实现一个简单的 tcp 服务,只是介绍了iouring的基本使用,没有涉及底层实现。 后面有时间再去学一下 liburing 的源码,看看底层是如何实现的。

先解释一下两个名词:iouringliburingiouringLinux 内核在 5.1 版本引入的一个新的异步I/O接口。 liburingiouring 的一个用户态库,封装了 iouring 的接口,使得用户可以更方便的使用 iouring

简单说就是 io_uring 是linux内核的功能,对外提供了一套异步I/O的接口。因为直接使用 linux内核的 io_uring 接口太麻烦了, 所以在就写了 liburing 这个库,对内核的 io_uring 封装,提供了一套更加友好的接口,使得用户可以更方便的使用 io_uring

什么是iouring

io_uring是Linux内核在 5.1 版本引入的一个新的异步I/O接口。 io_uring的目标是提供一个高效的、统一的异步I/O接口,以替代现有的异步I/O接口(如aio、epoll、eventfd等)。 io_uring的设计目标是提供一个简单的、高效的、统一的异步I/O接口,以便应用程序可以更容易地利用异步I/O的优势。

虽然linux内核提供了很多异步I/O的接口,比如aio。 在linux上可以使用

fcntl(sockfd, F_SETFL, fcntl(sockfd, F_GETFL, 0) | O_NONBLOCK);

来设置 socket 为非阻塞模式,后续在读写 socketfd 时,使用 readwrite 函数 就是非阻塞的了。

在调用 readwrite 函数时,如果 fd 没有数据,或者 fd 的缓冲区满了,那么 readwrite 函数会立即返回, 不会阻塞

但是这种方式有一个问题,就是 readwrite 函数的调用是阻塞的,虽然 readwrite 函数会立即返回,但是 readwrite 函数的调用是阻塞的,会占用 CPU 的资源。

因为之前的异步I/O接口不够好用,所以 io_uring 就诞生了。

io_uring 的设计目标是提供一个简单的、高效的、统一的异步I/O接口,以便应用程序可以更容易地利用异步I/O的优势。 现在的 io_uring 支持 文件 I/O网络 I/O定时器信号 等。真正的统一了 I/O 异步操作。

说到异步I/O,就不得不提一下 epollepollLinux 内核提供的一种 I/O 多路复用机制,可以同时监控多个 fdI/O 事件。 epoll 只是这个 多路复用机制,只是用来监控 fdI/O 事件,当 fdI/O 事件时(fd 可以被读写时), epoll 会通知应用程序。 真正的 I/O 操作还是由 readwrite 函数来完成的。 所以说 epoll 并不是异步 I/O ,只是 I/O 多路复用机制。

io_uring的基础概念

io_uring 有两个重要的概念:Submission QueueCompletion Queue 。 简称 sqcq

Submission Queueio_uring 的提交队列,用来提交 I/O 请求。

Completion Queueio_uring 的完成队列,用来存放 I/O 请求的完成状态。

sqcq 相对应的是 sqecqe

sqeSubmission Queue 的元素,用来描述一个 I/O 请求。

cqeCompletion Queue 的元素,用来描述一个 I/O 请求的完成状态。

放一张iouring的工作流程图:

io_uring中非常重要的两个数据结构 sqcq。是用户空间和内核空间之间的通信桥梁。

io_uring 的工作流程如下:

  1. 应用程序向 Submission Queue 中提交 I/O 请求。
  2. io_uring 内核模块从 Submission Queue 中取出 I/O 请求,执行 I/O 操作。
  3. io_uring 内核模块将 I/O 请求的完成状态写入 Completion Queue
  4. 应用程序从 Completion Queue 中读取 I/O 请求的完成状态。
  5. 应用程序处理 I/O 请求的完成状态。

因为这次只是简单的介绍 iouring 的基本使用,所以就不深入讲 iouring 的原理了。

liburing的使用

liburingiouring 的一个用户态库,封装了 iouring 的接口,使得用户可以更方便的使用 iouring

liburing中封装了很多操作函数,这次也不会全部介绍,只介绍一些常用的函数。

liburing常用的函数

io_uring_queue_init

初始化 io_uring 对象。

cpp 复制代码
int io_uring_queue_init(unsigned entries, struct io_uring *ring,unsigned flags);

有三个参数:

  1. entriesSubmission QueueCompletion Queue 的大小。
  2. ringio_uring 对象。
  3. flags : 保留参数,传 0 即可。

io_uring_queue_exit

销毁 io_uring 对象。

cpp 复制代码
void io_uring_queue_exit(struct io_uring *ring);

传入 io_uring 对象即可。

io_uring_get_sqe

获取 Submission Queue 的元素。

cpp 复制代码
struct io_uring_sqe *io_uring_get_sqe(struct io_uring *ring);

传入 io_uring 对象,返回一个 sqe 对象,用来描述一个 I/O 请求。

io_uring_submit

提交 I/O 请求。

cpp 复制代码
int io_uring_submit(struct io_uring *ring);

传入 io_uring 对象,提交 I/O 请求。

io_uring_wait_cqe

等待 I/O 请求的完成状态。

cpp 复制代码
int io_uring_wait_cqe(struct io_uring *ring, struct io_uring_cqe **cqe_ptr);

传入 io_uring 对象,返回 cqe 对象,用来描述一个 I/O 请求的完成状态。

io_uring_submit_and_wait

提交 I/O 请求,并等待 I/O 请求的完成状态。

cpp 复制代码
int io_uring_submit_and_wait(struct io_uring *ring, unsigned wait_nr);

传入 io_uring 对象,提交 I/O 请求,并等待 I/O 请求的完成状态。

可以看做是 io_uring_submitio_uring_wait_cqe 的组合。

io_uring_prep_accept

Submission Queue 中添加一个 accept 请求。

cpp 复制代码
void io_uring_prep_accept(struct io_uring_sqe *sqe, int fd, struct sockaddr *addr, socklen_t *addrlen, int flags);

有五个参数:

  1. sqeSubmission Queue 的元素。
  2. fdsocketfd
  3. addrsockaddr 结构体。
  4. addrlensockaddr 结构体的长度。
  5. flags : 保留参数,传 0 即可。

io_uring_prep_recv

Submission Queue 中添加一个 recv 请求,也就是从fd中异步读取数据。

cpp 复制代码
void io_uring_prep_recv(struct io_uring_sqe *sqe, int fd, void *buf, unsigned nbytes, unsigned flags);

有五个参数:

  1. sqeSubmission Queue 的元素。
  2. fdsocketfd
  3. buf : 接收数据的缓冲区,一般是 char 数组的地址。
  4. nbytes: 缓冲区的大小。
  5. flags : 保留参数,传 0 即可。

io_uring_prep_send

Submission Queue 中添加一个 send 请求,也就是向fd中异步写入数据。

cpp 复制代码
void io_uring_prep_send(struct io_uring_sqe *sqe, int fd, const void *buf, unsigned nbytes, unsigned flags);

有五个参数:

  1. sqeSubmission Queue 的元素。
  2. fdsocketfd
  3. buf : 发送数据的缓冲区,一般是 char 指针的地址。
  4. nbytes: 缓冲区的大小。
  5. flags : 保留参数,传 0 即可。

io_uring_sqe_set_data

设置 sqe 的数据,把用户态的数据和内核绑定。

cpp 复制代码
void io_uring_sqe_set_data(struct io_uring_sqe *sqe, void *data);

传入 sqe 对象和用户态的数据,把用户态的数据和内核绑定。

io_uring_cqe_seen

标记 cqe 为已处理。

cpp 复制代码
void io_uring_cqe_seen(struct io_uring *ring, struct io_uring_cqe *cqe);

传入 io_uring 对象和 cqe 对象,标记 cqe 为已处理。

实现一个简单的tcp服务

io_uring 只能在 linux 内核 5.1 以上版本使用,所以在使用io_uring之前,需要先检查一下内核版本。 一般最新的 ubuntuDebian 都是支持 io_uring 的。

使用 liburing 需要安装 liburing 库。

shell 复制代码
sudo apt-get install liburing-dev

下面是一个简单的 tcp 服务,功能是接收客户端的连接,然后向客户端发送一条消息。

cpp 复制代码
#include <iostream>

#include <liburing.h>
#include <netinet/in.h>
#include <map>

const int QUEUE_DEPTH = 128;
const int BUFFER_SIZE = 4096;

enum ConnectionType {
    ACCEPT,
    READ,
    WRITE,
};

struct Connection {
    int fd;
    int type{};
    char readBuf[BUFFER_SIZE]{};
    std::string writeBuf;

    explicit Connection(int _fd) { fd = _fd; }
};

std::map<int, Connection *> connections;

int createListener(sockaddr_in *addr) {
    int listener = socket(AF_INET, SOCK_STREAM, 0);
    if (listener < 0) {
        std::cerr << "socket failed errno:" << errno << std::endl;
        return -1;
    }

    int opt = 1;
    if (setsockopt(listener, SOL_SOCKET, SO_REUSEADDR, &opt, sizeof(opt)) < 0) {
        std::cerr << "setsockopt failed errno:" << errno << std::endl;
        close(listener);
        return -1;
    }

    if (bind(listener, reinterpret_cast<sockaddr *>(addr), sizeof(*addr)) < 0) {
        std::cerr << "bind failed errno:" << errno << std::endl;
        close(listener);
        return -1;
    }

    if (listen(listener, 10) < 0) {
        std::cerr << "listen failed errno:" << errno << std::endl;
        return -1;
    }

    return listener;
}

void acceptConnection(io_uring *ring, Connection *conn, sockaddr *addr, socklen_t *clientLen) {
    conn->type = ACCEPT;
    auto sqe = io_uring_get_sqe(ring);
    io_uring_prep_accept(sqe, conn->fd, addr, clientLen, 0);
    io_uring_sqe_set_data(sqe, conn);
}

void addSocketRead(io_uring *ring, Connection *conn) {
    conn->type = READ;
    auto sqe = io_uring_get_sqe(ring);
    io_uring_prep_recv(sqe, conn->fd, &conn->readBuf, BUFFER_SIZE, 0);
    io_uring_sqe_set_data(sqe, conn);
}

void addSocketWrite(io_uring *ring, Connection *conn) {
    conn->type = WRITE;
    auto sqe = io_uring_get_sqe(ring);
    io_uring_prep_send(sqe, conn->fd, conn->writeBuf.data(), conn->writeBuf.size(), 0);
    io_uring_sqe_set_data(sqe, conn);
}

Connection *newConn(io_uring *ring, int fd) {
    auto conn = new Connection(fd);
    connections[fd] = conn;
    addSocketRead(ring, conn);
    return conn;
}

int uringRun() {
    sockaddr_in addr{};
    addr.sin_family = AF_INET;
    addr.sin_port = htons(8088);
    addr.sin_addr.s_addr = INADDR_ANY;

    int listenFd = createListener(&addr);
    if (listenFd < 0) {
        return 1;
    }
    socklen_t clientLen = sizeof(addr);
    io_uring ring{};
    if (io_uring_queue_init(QUEUE_DEPTH, &ring, 0) < 0) {
        std::cerr << "io_uring_queue_init failed errno:" << errno << std::endl;
        return 1;
    }
    auto lConn = newConn(&ring, listenFd);
    acceptConnection(&ring, lConn, reinterpret_cast<sockaddr *> (&addr), &clientLen);
    if (io_uring_submit(&ring) < 0) {
        std::cerr << "io_uring_submit failed errno:" << errno << std::endl;
        return 1;
    }

    io_uring_cqe *cqes[QUEUE_DEPTH];
    while (true) {
        //等待事件完成
        int ret = io_uring_submit_and_wait(&ring, 1);
        if (ret < 0) {
            std::cerr << "io_uring_wait_cqe failed errno:" << errno << std::endl;
            break;
        }

        //获取完成的事件
        auto num = io_uring_peek_batch_cqe(&ring, cqes, QUEUE_DEPTH);
        for (int i = 0; i < num; ++i) {
            auto conn = reinterpret_cast<Connection *> (cqes[i]->user_data);
            if (conn->type == ACCEPT) {//新连接
                int clientFd = cqes[i]->res;
                auto newCLi = newConn(&ring, clientFd);
                addSocketRead(&ring, newCLi);
                acceptConnection(&ring, lConn, reinterpret_cast<sockaddr *> (&addr), &clientLen);
            } else if (conn->type == READ) {
                int readSize = cqes[i]->res;
                if (readSize < 0) {//读取失败(比如客户端断开连接)
                    shutdown(conn->fd, SHUT_RDWR);
                    connections.erase(conn->fd);
                    delete conn;
                } else {
                    std::cout << "read:" << conn->readBuf << std::endl;
                    conn->writeBuf = "hello client";
                    addSocketWrite(&ring, conn);//向客户端写数据
                }
            } else if (conn->type == WRITE) {
                addSocketRead(&ring, conn);// 把这个连接加入读事件
            }
            io_uring_cqe_seen(&ring, cqes[i]);// mark the cqe as processed
        }
    }
    io_uring_queue_exit(&ring);
    return 0;
}

int main() {
    uringRun();
    return 0;
}

编译这段代码的时候,需要链接 liburing 库。

shell 复制代码
g++ -o server server.cpp -luring

createListener 函数用来创建一个 socket 监听 8088 端口。这个函数没什么特别的,就是创建一个 socket ,然后绑定 8088 端口,然后监听。

acceptConnection 函数用来接收客户端的连接。这个函数调用 io_uring_prep_accept 函数,向 Submission Queue 中添加一个 accept 请求。

addSocketRead 函数用来向 Submission Queue 中添加一个 recv 请求,也就是从 fd 中异步读取数据。

addSocketWrite 函数用来向 Submission Queue 中添加一个 send 请求,也就是向 fd 中异步写入数据。

newConn 函数用来创建一个新的连接。这个函数会调用 addSocketRead 函数,向 Submission Queue 中添加一个 recv 请求。

uringRun 函数是主函数。这个函数会创建一个 io_uring 对象,然后调用 createListener 函数创建一个监听 socket ,然后调用 newConn 函数创建一个新的连接。

有一个知识点需要注意一下,在 io_uring中,每次获取的 cqe 在使用完之后,需要调用 io_uring_cqe_seen 函数,标记 cqe 为已处理。 同时处理的时候,也会把 这个 cqeCompletion Queue 中移除,对应的 fd 也会从 io_uring 中移除。 所以,为了保证后续能继续接收到 fdI/O 事件,需要在处理完 cqe 之后,再次调用 addSocketRead 函数,向 Submission Queue 中添加一个 recv 请求。

这些函数的内容都比较简单,就不再详细介绍了。主要看一下 while 循环的内容。

int ret = io_uring_submit_and_wait(&ring, 1); 这个函数会提交 I/O 请求,并等待 I/O 请求的完成状态。这个函数会阻塞,直到有 1个 I/O 请求完成。

这里可以使用 io_uring_submit 这个函数只提交 I/O 请求,不等待 I/O 请求的完成状态。但是这样的话,while循环会一直循环,不会阻塞,对应的表现就是 CPU 占用率会很高。 这种情况适用于 I/O 请求比较多的情况,比如 nginx 这种 web 服务器。

一般情况下,使用 io_uring_submit_and_wait 这个函数就可以了。

如果 返回的 ret 小于 0,说明出错了,这里简单的打印一下错误信息,然后退出。

auto num = io_uring_peek_batch_cqe(&ring, cqes, QUEUE_DEPTH); 这个函数会获取 Completion Queue 中的 cqe ,一次最多获取 QUEUE_DEPTHcqe

这个函数有点类似于 epollepoll_wait 函数,会一次性获取多个 cqe

然后遍历 cqe ,根据 cqetype 来处理 I/O 事件。在之前的submit的时候,指定了有 ACCEPTREADWRITE 三种 I/O 事件。

因为之前的 cqe 中的 user_dataConnection 对象的指针,所以可以根据 cqeuser_data 来获取 Connection 对象,然后根据 Connection 对象的 type 来处理 I/O 事件。 所以可以 reinterpret_cast<Connection *> (cqes[i]->user_data);强转来获取 Connection 对象。

如果 typeACCEPT ,说明是新的连接,就调用 newConn 函数创建一个新的连接,然后调用 acceptConnection 函数接收新的连接。 在接收新的连接之后,需要再次调用 acceptConnection 函数,把listener的socket放回io_uring中,后面才能继续工作。

如果 typeREAD ,说明是读事件,就读取 cqeres 字段,如果小于 0 ,说明读取失败,比如客户端断开连接,就关闭 fd ,然后从 connections 中移除这个 fd ,然后释放 Connection 对象。 如果读取成功,就打印读取的数据,然后向客户端发送一条消息。

如果 typeWRITE ,说明是写事件,在这里就是向客户端写数据完成了。 调用 addSocketRead 函数,向 Submission Queue 中添加一个 读的请求,然后这个 fd 就会继续接收 I/O 事件。

最后调用 io_uring_cqe_seen 函数,标记 cqe 为已处理。

这样一个简单的 tcp 服务就实现了。这个服务只是一个简单的例子,没法用在生产环境中,只是用来学习 iouring 的基本使用。

像是中间的错误处理,连接的超时等问题都没有处理,这些问题需要根据实际情况来处理。

这个例子中,一个 socket 同时只能读或者写,不能同时读写,这个问题也需要根据实际情况来处理。

总结

这篇文章主要介绍了 iouring 的基本使用,实现了一个简单的 tcp 服务。只是介绍了 iouring 的基本使用,没有涉及底层实现。 后面有时间再去学一下 liburing 的源码,看看底层是如何实现的。 看很多人都说 iouring 性能很高,尤其是在 I/O 密集型的场景下,性能提升很明显。这部分内容还没有验证,后面有时间再去验证一下。

因为也是初学 iouring,所以文章中可能有错误,欢迎批评指正。

最后放一下 我自己blog的 地址

相关推荐
hgdlip4 分钟前
手机IP地址:定义、查看与切换方法
网络协议·tcp/ip·智能手机
悲伤小伞20 分钟前
C++_数据结构_详解二叉搜索树
c语言·数据结构·c++·笔记·算法
dowhileprogramming32 分钟前
Python 中的迭代器
linux·数据库·python
过过过呀Glik32 分钟前
在 Ubuntu 服务器上添加和删除用户
linux·服务器·ubuntu
m0_675988231 小时前
Leetcode3218. 切蛋糕的最小总开销 I
c++·算法·leetcode·职场和发展
Tesseract_95272 小时前
ioctl回顾
linux
Java小白中的菜鸟3 小时前
centos7的磁盘扩容
linux·运维·服务器
dengjiayue3 小时前
tcp 的重传,流量控制,拥塞控制
网络协议·tcp/ip
code04号5 小时前
C++练习:图论的两种遍历方式
开发语言·c++·图论
黑子哥呢?5 小时前
Linux---防火墙端口设置(firewalld)
linux·服务器·网络