异步IO框架io_uring实现TCP服务器

一、io_uring介绍

io_uring是 Linux 于 2019 年加入到内核的一种新型异步 I/O 模型,io_uring 主要为了解决 原生AIO(Native AIO) 存在的一些不足之处。下面介绍一下原生 AIO 的不足之处:

  • 系统调用开销大:提交 I/O 操作和获取 I/O 操作的结果都需要通过系统调用完成,而触发系统调用时,需求进行上下文切换。在高 IOPS(Input/Output Per Second)的情况下,进行上下文切换也会消耗大量的CPU时间。

  • 仅支持 Direct I/O(直接I/O) :在使用原生 AIO 的时候,只能指定 O_DIRECT 标识位(直接 I/O),不能借助文件系统的页缓存(page cache)来缓存当前的 I/O 请求。

  • 对数据有大小对齐限制:所有写操作的数据大小必须是文件系统块大小(一般为4KB)的倍数,而且要与内存页大小对齐。

  • 数据拷贝开销大:每个 I/O 提交需要拷贝 64+8 字节,每个 I/O 完成结果需要拷贝 32 字节,总共 104 字节的拷贝。这个拷贝开销是否可以承受,和单次 I/O 大小有关:如果需要发送的 I/O 本身就很大,相较之下,这点消耗可以忽略。而在大量小 I/O 的场景下,这样的拷贝影响比较大。

对应io_uring就有他的优势:

  • 减少系统调用 :io_uring通过内核态和用户态共享内存的方式进行通信。如下图:

用户态和内核态之间通过共享内存维护了三部分:提交队列、完成队列、提交队列表项数组。

提交队列是一整块连续的内存空间存储的环形队列,用于存放将要执行I/O操作的数据。

完成队列也是一整块连续的内存空间存储的环形队列,其中存放了I/O操作完成返回的结果。

提交队列表项数组是以数组形式将要执行的I/O操作组织在一起,提交队列完成队列分别通过指针指向对应表项(内部通过偏移量实现)完成对应操作。如下图所示:

提交队列具体实现为:io_uring_sq结构体。

cpp 复制代码
struct io_uring_sq {
    unsigned *khead;
    unsigned *ktail;
    
    unsigned *kflags;
    unsigned *kdropped;
    unsigned *array;
    struct io_uring_sqe *sqes;
​
    unsigned sqe_head;
    unsigned sqe_tail;
​
    size_t ring_sz;
    void *ring_ptr;
​
    unsigned ring_mask;
    unsigned ring_entries;
​
    unsigned pad[2];
};

提交队列通过struct io_uring_sqe *sqes提交队列表项数组,使用khead、ktail指向对应队头和对尾完成应用层提交的IO任务的处理。同理完成队列也是如此,不过是由内核态将对应IO事件执行完成后将结果写入到对应表项。应用层通过完成队列表项即可获取到最终结果。

整体流程为:

请求时:1、应用创建SQE,更新SQ tail 2、内核消费SQE,更新SQ head。内核开始处理任务,处理完成后:1、内核为完成的一个或多个请求创建CQE,更新CQ tail 2、应用层消费CQE,更新CQ head。

二、liburing安装

上文介绍的io_uring均为内核层支持,在内核层提供了三个API:

  • io_uring_setup(2)

  • io_uring_register(2)

  • io_uring_enter(2)

    为方便使用直接安装liburing即可在应用层使用io_uring。liburing为作者Axboe封装好的用户态库。

实验环境:vmware 17安装ubuntu22.04 、内核版本:6.8.0-60-generic

选用源码安装方式,安装liburing。

1、获取源码:git clone https://github.com/axboe/liburing.git

2、编译:

bash 复制代码
cd liburing-master
./configure
make -j
sudo make install

三、代码实现

cpp 复制代码
#include <stdio.h>
#include <liburing.h>
#include <netinet/in.h>
#include <string.h>
#include <unistd.h>
​
#define BUFFER_LENGTH   1024
#define ENTRIES_LENGTH  1024
​
#define EVENT_ACCEPT    0
#define EVENT_READ      1
#define EVENT_WRITE     2
​
// io事件信息
struct req_info{
    int fd;
    int event;
};
​
// 初始化tcp fd
int init_server(unsigned int port){
    int socket_fd = socket(AF_INET, SOCK_STREAM, 0);
    struct sockaddr_in serveraddr;
    memset(&serveraddr, 0, sizeof(struct sockaddr_in));
    serveraddr.sin_addr.s_addr = htonl(INADDR_ANY);
    serveraddr.sin_family = AF_INET;
    serveraddr.sin_port = htons(port);
    if(-1 == bind(socket_fd, (struct sockaddr *)&serveraddr, sizeof(struct sockaddr))){
        perror("bind error!\n");
    }
    listen(socket_fd, 10);
    return socket_fd;
}
​
// 设置accept事件
int set_event_accept(struct io_uring *ring, int sockfd, struct sockaddr* addr, socklen_t *addrlen, int flags){
    struct io_uring_sqe *sqe = io_uring_get_sqe(ring);
​
    struct req_info accept_info = {
        .fd = sockfd,
        .event = EVENT_ACCEPT
    };
​
    memcpy(&sqe->user_data, &accept_info, sizeof(struct req_info));
    io_uring_prep_accept(sqe, sockfd, addr, addrlen, flags);
​
    return 0;
}
​
// 设置recv事件
int set_event_recv(struct io_uring *ring, int sockfd, void *buf, size_t len, int flags){
    struct io_uring_sqe *sqe = io_uring_get_sqe(ring);
​
    struct req_info recv_info = {
        .fd = sockfd,
        .event = EVENT_READ
    };
​
    memcpy(&sqe->user_data, &recv_info, sizeof(struct req_info));
    io_uring_prep_recv(sqe, sockfd, buf, len, flags);
​
    return 0;
}
​
// 设置send事件
int set_event_send(struct io_uring *ring, int sockfd, void *buf, size_t len, int flags){
    struct io_uring_sqe *sqe = io_uring_get_sqe(ring);
​
    struct req_info send_info = {
        .fd = sockfd,
        .event = EVENT_WRITE
    };
​
    memcpy(&sqe->user_data, &send_info, sizeof(struct req_info));
    io_uring_prep_send(sqe, sockfd, buf, len, flags);
​
    return 0;
}
​
int main(int argc, void *argv[]){
    unsigned int port = 9999;
    int sockfd = init_server(port);
​
    struct io_uring_params params;
    memset(&params, 0, sizeof(struct io_uring_params));
    
    // 初始化io_uring 其中包含了sq和cq
    struct io_uring ring;
​
    io_uring_queue_init_params(ENTRIES_LENGTH, &ring, &params);
​
    struct sockaddr_in clientaddr;
    socklen_t len = sizeof(clientaddr);
    
    set_event_accept(&ring, sockfd, (struct sockaddr*)&clientaddr, &len, 0);
​
    while(1){
        char buffer[BUFFER_LENGTH] = {0};
​
        // 事件提交
        io_uring_submit(&ring);
​
        // 等待事件完成,其他开发场景下非必要情况无需等待
        struct io_uring_cqe *cqe;
        io_uring_wait_cqe(&ring, &cqe);
​
        // 获取完成事件
        struct io_uring_cqe *cqe_list[128];
        int nready = io_uring_peek_batch_cqe(&ring, cqe_list, 128);
        
        // echo逻辑处理
        for(int i = 0; i < nready; ++i){
            struct io_uring_cqe *entries = cqe_list[i];
            struct req_info result;
            memcpy(&result, &entries->user_data, sizeof(struct req_info));
            if(result.event == EVENT_ACCEPT){
                printf("accept client\n");
                set_event_accept(&ring, sockfd, (struct sockaddr*)&clientaddr, &len, 0);
​
                int connfd = entries->res;
​
                set_event_recv(&ring, connfd, buffer, BUFFER_LENGTH, 0);
            }else if(result.event == EVENT_READ){
                int connfd = entries->res;
                if(connfd == 0){
                    printf("close fd:%d\n", result.fd);
                    close(result.fd);
                }else if(connfd > 0){
                    printf("recv: len:%d, data:%s\n", connfd, buffer);
                    set_event_send(&ring, result.fd, buffer, connfd, 0);
                }else{
                    printf("error recv!\n");
                    close(result.fd);
                }
            }else if(result.event == EVENT_WRITE){
                int ret = entries->res;
                printf("set_event_send ret: %d, %s\n", ret, buffer);
                set_event_recv(&ring, result.fd, buffer, BUFFER_LENGTH, 0);
            }
        }
​
        // 清除完成队列中完成表项,以免事件重复处理
        io_uring_cq_advance(&ring, nready);
    }
​
    return 0;
}

更多内容可参考:0voice · GitHub