Redis10-原理-网络模型

文章目录

Redis10-原理-网络模型

1、用户空间和内核空间

(1)系统架构
  • 服务器大多都采用Linux系统,这里我们以Linux为例来讲解:
  • 任何Linux发行版,其系统内核都是Linux。我们的应用都需要通过Linux内核与硬件交互。
(2)用户和内核
  • 为了避免用户应用导致冲突甚至内核崩溃,用户应用与内核是分离的:
    • 进程的寻址空间会划分为两部分:内核空间、用户空间
    • 用户空间只能执行受限的命令(Ring3),而且不能直接调用系统资源,必须通过内核提供的接口来访问
    • 内核空间可以执行特权命令(Ring0),调用一切系统资源
(3)用户空间和内核空间
  • Linux系统为了提高IO效率,会在用户空间和内核空间都加入缓冲区:
    • 写数据时,要把用户缓冲数据拷贝到内核缓冲区,然后写入设备
    • 读数据时,要从设备读取数据到内核缓冲区,然后拷贝到用户缓冲区

2、阻塞IO

(1)5种IO模型
  • 在《UNIX网络编程》一书中,总结归纳了5种IO模型:
    • 阻塞IO(Blocking IO)
    • 非阻塞IO(Nonblocking IO)
    • IO多路复用(IO Multiplexing)
    • 信号驱动IO(Signal Driven IO)
    • 异步IO(Asynchronous IO)
(2)概念
  • 顾名思义,阻塞IO就是两个阶段都必须阻塞等待:
(3)执行流程
  • 阶段一:
    • 用户进程尝试读取数据(比如网卡数据)
    • 此时数据尚未到达,内核需要等待数据
    • 此时用户进程也处于阻塞状态
  • 阶段二:
    • 数据到达并拷贝到内核缓冲区,代表已就绪
    • 将内核数据拷贝到用户缓冲区
    • 拷贝过程中,用户进程依然阻塞等待
    • 拷贝完成,用户进程解除阻塞,处理数据
  • 可以看到,阻塞IO模型中,用户进程在两个阶段都是阻塞状态。

3、非阻塞IO

(1)概念
  • 顾名思义,非阻塞IO的recvfrom操作会立即返回结果而不是阻塞用户进程。
(2)执行流程
  • 阶段一:
    • 用户进程尝试读取数据(比如网卡数据)
    • 此时数据尚未到达,内核需要等待数据
    • 返回异常给用户进程
    • 用户进程拿到error后,再次尝试读取
    • 循环往复,直到数据就绪
  • 阶段二:
    • 将内核数据拷贝到用户缓冲区
    • 拷贝过程中,用户进程依然阻塞等待
    • 拷贝完成,用户进程解除阻塞,处理数据
  • 可以看到,非阻塞IO模型中,用户进程在第一个阶段是非阻塞,第二个阶段是阻塞状态。虽然是非阻塞,但性能并没有得到提高。而且忙等机制会导致CPU空转,CPU使用率暴增。

4、IO多路复用

(1)存在的问题
  • 无论是阻塞IO还是非阻塞IO,用户应用在一阶段都需要调用recvfrom来获取数据,差别在于无数据时的处理方案:
    • 如果调用recvfrom时,恰好没有数据,阻塞IO会使CPU阻塞,非阻塞IO使CPU空转,都不能充分发挥CPU的作用。
    • 如果调用recvfrom时,恰好有数据,则用户进程可以直接进入第二阶段,读取并处理数据
  • 而在单线程情况下,只能依次处理IO事件,如果正在处理的IO事件恰好未就绪(数据不可读或不可写),线程就会被阻塞,所有IO事件都必须等待,性能自然会很差。
  • 就比如服务员给顾客点餐,分两步:
    • 顾客思考要吃什么(等待数据就绪)
    • 顾客想好了,开始点餐(读取数据)
  • 要提高效率有几种办法?
    • 方案一:增加更多服务员(多线程)
    • 方案二:不排队,谁想好了吃什么(数据就绪了),服务员就给谁点餐(用户应用就去读取数据)
  • 那么问题来了:用户进程如何知道内核中数据是否就绪呢?答案是IO多路复用
(2)概念
  • 文件描述符(File Descriptor):简称FD,是一个从0 开始的无符号整数,用来关联Linux中的一个文件。在Linux中,一切皆文件,例如常规文件、视频、硬件设备等,当然也包括网络套接字(Socket)。
  • IO多路复用:是利用单个线程来同时监听多个FD,并在某个FD可读、可写时得到通知,从而避免无效的等待,充分利用CPU资源。
    • 阶段一:
      • 用户进程调用select,指定要监听的FD集合
      • 内核监听FD对应的多个socket
      • 任意一个或多个socket数据就绪则返回readable
      • 此过程中用户进程阻塞
    • 阶段二:
      • 用户进程找到就绪的socket
      • 依次调用recvfrom读取数据
      • 内核将数据拷贝到用户空间
      • 用户进程处理数据
(3)监听FD的方式
  • 监听FD的方式、通知的方式又有多种实现,常见的有:
    • select
    • poll
    • epoll
  • 差异:
    • select和poll只会通知用户进程有FD就绪,但不确定具体是哪个FD,需要用户进程逐个遍历FD来确认
    • epoll则会在通知用户进程FD就绪的同时,把已就绪的FD写入用户空间
(4)select
  • select是Linux最早是由的I/O多路复用技术:
  • select模式存在的问题:
    • 需要将整个fd_set从用户空间拷贝到内核空间,select结束还要再次拷贝回用户空间
    • select无法得知具体是哪个fd就绪,需要遍历整个fd_set
    • fd_set监听的fd数量不能超过1024
(5)poll
  • poll模式对select模式做了简单改进,但性能提升不明显,poll利用链表解决了select中监听FD上限的问题,但依然要遍历所有FD,如果监听较多,性能会下降,部分关键代码如下:
  • IO流程:
    • 创建pollfd数组,向其中添加关注的fd信息,数组大小自定义
    • 调用poll函数,将pollfd数组拷贝到内核空间,转链表存储,无上限
    • 内核遍历fd,判断是否就绪
    • 数据就绪或超时后,拷贝pollfd数组到用户空间,返回就绪fd数量n
    • 用户进程判断n是否大于0
    • 大于0则遍历pollfd数组,找到就绪的fd
  • 与select对比:
    • select模式中的fd_set大小固定为1024,而pollfd在内核中采用链表,理论上无上限
    • 监听FD越多,每次遍历消耗时间也越久,性能反而会下降
(6)epoll
  • epoll模式是对select和poll的改进,它提供了三个函数:
    • 基于epoll实例中的红黑树保存要监听的FD,理论上无上限,而且增删改查效率都非常高
    • 每个FD只需要执行一次epoll_ctl添加到红黑树,以后每次epol_wait无需传递任何参数,无需重复拷贝FD到内核空间
    • 利用ep_poll_callback机制来监听FD状态,无需遍历所有FD,因此性能不会随监听的FD数量增多而下降
(7)事件通知机制
  • 当FD有数据可读时,我们调用epoll_wait(或者select、poll)可以得到通知。但是事件通知的模式有两种:
    • LevelTriggered:简称LT,也叫做水平触发。只要某个FD中有数据可读,每次调用epoll_wait都会得到通知。
    • EdgeTriggered:简称ET,也叫做边沿触发。只有在某个FD有状态变化时,调用epoll_wait才会被通知。
  • 举个栗子:
    • 假设一个客户端socket对应的FD已经注册到了epoll实例中
    • 客户端socket发送了2kb的数据
    • 服务端调用epoll_wait,得到通知说FD就绪
    • 服务端从FD读取了1kb数据
    • 回到步骤3(再次调用epoll_wait,形成循环)
  • 结果:
    • 如果我们采用LT模式,因为FD中仍有1kb数据,则第⑤步依然会返回结果,并且得到通知
    • 如果我们采用ET模式,因为第③步已经消费了FD可读事件,第⑤步FD状态没有变化,因此epoll_wait不会返回,数据无法读取,客户端响应超时。

5、信号驱动IO

(1)概念
  • 信号驱动IO是与内核建立SIGIO的信号关联并设置回调,当内核有FD就绪时,会发出SIGIO信号通知用户,期间用户应用可以执行其它业务,无需阻塞等待。
(2)执行流程
  • 阶段一:
    • 用户进程调用sigaction,注册信号处理函数
    • 内核返回成功,开始监听FD
    • 用户进程不阻塞等待,可以执行其它业务
    • 当内核数据就绪后,回调用户进程的SIGIO处理函数
  • 阶段二:
    • 收到SIGIO回调信号
    • 调用recvfrom,读取
    • 内核将数据拷贝到用户空间
    • 用户进程处理数据
  • 当有大量IO操作时,信号较多,SIGIO处理函数不能及时处理可能导致信号队列溢出,而且内核空间与用户空间的频繁信号交互性能也较低。

6、异步IO

(1)概念
  • 异步IO的整个过程都是非阻塞的,用户进程调用完异步API后就可以去做其它事情,内核等待数据就绪并拷贝到用户空间后才会递交信号,通知用户进程。
(2)执行流程
  • 阶段一:
    • 用户进程调用aio_read,创建信号回调函数
    • 内核等待数据就绪
    • 用户进程无需阻塞,可以做任何事情
  • 阶段二:
    • 内核数据就绪
    • 内核数据拷贝到用户缓冲区
    • 拷贝完成,内核递交信号触发aio_read中的回调函数
    • 用户进程处理数据
  • 可以看到,异步IO模型中,用户进程在两个阶段都是非阻塞状态。
(3)同步和异步
  • IO操作是同步还是异步,关键看数据在内核空间与用户空间的拷贝过程(数据读写的IO操作),也就是阶段二是同步还是异步:

7、Redis网络模型

(1)单线程还是多线程
  • Redis到底是单线程还是多线程?
    • 如果仅仅聊Redis的核心业务部分(命令处理),答案是单线程
    • 如果是聊整个Redis,那么答案就是多线程
  • 在Redis版本迭代过程中,在两个重要的时间节点上引入了多线程的支持:
    • Redis v4.0:引入多线程异步处理一些耗时较旧的任务,例如异步删除命令unlink
    • Redis v6.0:在核心网络模型中引入 多线程,进一步提高对于多核CPU的利用率
  • 因此,对于Redis的核心网络模型,在Redis 6.0之前确实都是单线程。是利用epoll(Linux系统)这样的IO多路复用技术在事件循环中不断处理客户端情况。
  • 为什么Redis要选择单线程?
    • 抛开持久化不谈,Redis是纯内存操作,执行速度非常快,它的性能瓶颈是网络延迟而不是执行速度,因此多线程并不会带来巨大的性能提升。
    • 多线程会导致过多的上下文切换,带来不必要的开销
    • 引入多线程会面临线程安全问题,必然要引入线程锁这样的安全手段,实现复杂度增高,而且性能也会大打折扣
(2)Redis网络模型
  • Redis通过IO多路复用来提高网络性能,并且支持各种不同的多路复用实现,并且将这些实现进行封装, 提供了统一的高性能事件库API库 AE:
  • 来看下Redis单线程网络模型的整个流程:
  • Redis 6.0版本中引入了多线程,目的是为了提高IO读写效率。因此在解析客户端命令、写响应结果时采用了多线程。核心的命令执行、IO多路复用模块依然是由主线程执行。
相关推荐
BingoGo2 天前
OpenSwoole 26.2.0 发布:支持 PHP 8.5、io_uring 后端及协程调试改进
后端·php
JaguarJack2 天前
OpenSwoole 26.2.0 发布:支持 PHP 8.5、io_uring 后端及协程调试改进
后端·php·服务端
JaguarJack3 天前
推荐 PHP 属性(Attributes) 简洁读取 API 扩展包
后端·php·服务端
BingoGo3 天前
推荐 PHP 属性(Attributes) 简洁读取 API 扩展包
php
JaguarJack4 天前
告别 Laravel 缓慢的 Blade!Livewire Blaze 来了,为你的 Laravel 性能提速
后端·php·laravel
郑州光合科技余经理4 天前
代码展示:PHP搭建海外版外卖系统源码解析
java·开发语言·前端·后端·系统架构·uni-app·php
DianSan_ERP4 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
feifeigo1234 天前
matlab画图工具
开发语言·matlab
dustcell.4 天前
haproxy七层代理
java·开发语言·前端
norlan_jame4 天前
C-PHY与D-PHY差异
c语言·开发语言