在前边的C语言实现简易tcp服务器中,我们实现服务器是采用了最笨拙的方法,就是每来一个客户端,我们就创建一个线程进行连接处理。试想如果有10w个客户端来,就需要10w个线程,需要创建大量的线程,耗费大量的资源,并且为了保证线程安全,还需要考虑锁,死锁等问题,这些都需要一定的开销。因此为了解决这个问题,我们下一篇介绍了select、poll、epoll,他们三个是常用的I/O多路复用机制。解决了创建大量的线程的问题。用一个线程就可以去处理多个客户端连接的问题。那么问题来了,性能是否还能继续优化?之前我们用epoll来实现服务器是对i/o进行操作,我们可以使用Reactor模式封装epoll,隐藏底层io细节,在事件的层次上进行操作。
Reactor网络模式
在传统的阻塞io模型中,当一个线程遇到一个io操作时,它会一直等待操作完成。这意味着线程无法同时处理其他任务,导致资源利用率低下。
而Reactor(反应堆)模式可以解决上述问题。Reactor是一种事件驱动的设计模式,将I/O事件的管理和处理分离开来,使得程序能够同时处理多个并发的 I/O 事件。
具体来说,在 Reactor 模式中,有一个事件循环(event loop)负责监听各种输入事件,并将其分发给对应的处理函数进行处理。这样就实现了非阻塞地进行 I/O 操作,不需要等待单个 I/O 完成再进行下一个操作。相反,通过监听多个文件描述符上的事件,并将其交由合适的回调函数或处理器进行处理,可以实现高效的并发执行。
Reactor模式有单线程Reactor模式和多线程Reactor模式。今天我们主要在之前用epoll写简易tcp服务器的代码上进行修改从而实现单线程Reactor模式。
#include<sys/socket.h>
#include<errno.h>
#include<netinet/in.h>
#include<stdio.h>
#include<string.h>
#include<stdlib.h>
#include<sys/select.h>
#include<sys/epoll.h>
#include<unistd.h>
#define SERV_PORT 2048
#define BUFFER_LENGTH 128
typedef int (*RCALLBACK)(int fd);
struct conn_item
{
int fd;
char rbuffer[BUFFER_LENGTH];
int rlen;
char wbuffer[BUFFER_LENGTH];
int wlen;
union{
RCALLBACK accept_callback;
RCALLBACK recv_callback;
}recv_t;
RCALLBACK send_callback;
};
int epfd = 0;
struct conn_item connlist[1024] = {0};
void set_event(int fd,int event,int flag)
{
if(flag) //1 add 0 mod
{
struct epoll_event ev;
ev.events = event;
ev.data.fd = fd;
epoll_ctl(epfd, EPOLL_CTL_ADD, fd, &ev);
}
else
{
struct epoll_event ev;
ev.events = event;
ev.data.fd = fd;
epoll_ctl(epfd, EPOLL_CTL_MOD, fd, &ev);
}
}
int init_server()
{
int sockfd = socket(AF_INET,SOCK_STREAM,0);
struct sockaddr_in servaddr;
memset(&servaddr,0,sizeof(struct sockaddr_in));
servaddr.sin_family = AF_INET;
servaddr.sin_port = htons(SERV_PORT);
servaddr.sin_addr.s_addr = htonl(INADDR_ANY);
if(-1 == bind(sockfd,(struct sockaddr*)&servaddr,sizeof(struct sockaddr)))
{
perror("bind");
return -1;
}
listen(sockfd,10);
return sockfd;
}
int recv_cb(int fd)
{
char *buffer = connlist[fd].rbuffer;
int idx = connlist[fd].rlen;
//读的长度是剩余的多少: BUFFER_LENGTH - idx
//每次从idx开始
int count = recv(fd, buffer+idx, BUFFER_LENGTH - idx, 0);
if (count == 0) {
printf("disconnect\n");
epoll_ctl(epfd, EPOLL_CTL_DEL, fd, NULL);
close(fd);
return -1;
}
connlist[fd].rlen += count;
//send(fd, buffer, connlist[fd].idx, 0);
//设置事件 event
//need to send
memcpy(connlist[fd].wbuffer,connlist[fd].rbuffer,connlist[fd].rlen);
connlist[fd].rlen -= connlist[fd].rlen;
connlist[fd].wlen = connlist[fd].rlen;
set_event(fd,EPOLLOUT,0);
return count;
}
int send_cb(int fd)
{
char *buffer = connlist[fd].wbuffer;
int idx = connlist[fd].wlen;
int count = send(fd,buffer,idx,0);
//没有会一直recv buffer
set_event(fd,EPOLLIN,0);
return count;
}
int accept_cb(int fd)
{
struct sockaddr_in clientaddr;
socklen_t len = sizeof(clientaddr);
int clientfd = accept(fd, (struct sockaddr*)&clientaddr, &len);
if(clientfd<0)
{
return -1;
}
set_event(clientfd,EPOLLIN,1);
connlist[clientfd].fd = clientfd;
memset(connlist[clientfd].rbuffer,0,BUFFER_LENGTH);
connlist[clientfd].rlen = 0;
memset(connlist[clientfd].wbuffer,0,BUFFER_LENGTH);
connlist[clientfd].wlen = 0;
connlist[clientfd].recv_t.recv_callback = recv_cb;
connlist[clientfd].send_callback = send_cb;
return clientfd;
}
int main()
{
int sockfd = init_server();
epfd = epoll_create(1);
if(sockfd <0 )
{
printf("error\n");
}
connlist[sockfd].fd = sockfd;
connlist[sockfd].recv_t.accept_callback = accept_cb;
set_event(sockfd,EPOLLIN,1);
struct epoll_event events[1024] = {0};
printf("epoll test:\n");
while(1)
{
int nready = epoll_wait(epfd, events, 1024, -1);
printf("nready:%d\n",nready);
int i = 0;
for(i = 0;i<nready;i++)
{
int connfd = events[i].data.fd;
if(events[i].events & EPOLLIN)
{
int count = connlist[connfd].recv_t.recv_callback(connfd);
printf("client send count:%d buffer: %s\n",count,connlist[connfd].rbuffer);
}
else if(events[i].events & EPOLLOUT)
{
//printf("recv buffer: %s\n", connlist[connfd].wbuffer);
int count = connlist[connfd].send_callback(connfd);
printf("servre send buffer: %s\n",connlist[connfd].wbuffer);
}
}
}
}