多级缓存 架构设计

说在前面

在40岁老架构师 尼恩的读者社区(50+)中,很多小伙伴拿到一线互联网企业如阿里、网易、有赞、希音、百度、网易、滴滴的面试资格,多次遇到一个很重要的面试题:

  • 20w的QPS的场景下,服务端架构应如何设计?
  • 10w的QPS的场景下,缓存架构应如何设计?

尼恩提示,缓存架构、缓存规划、缓存淘汰、多级缓存的数据一致性 相关的问题,是架构的核心知识,又是线上的重点难题。

另外,尼恩一直給大家指导简历,辅导架构转型。前几天指导美团一个超级大佬L9的简历, 也谈到了缓存的这些难题, 需要提供一些解决方案,给他作为:

  • 第一:学习材料
  • 第二:架构轮子。

基于以上原因,尼恩基于 《京东服务端应用多级缓存架构方案》以及 《有赞透明多级缓存解决方案(TMC)》,给大家做一下系统化、体系化的梳理。从而,再面试的时候,使得大家可以充分展示一下大家雄厚的 "技术肌肉",让面试官爱到 "不能自已、口水直流"

也一并把这个题目以及参考答案,收入咱们的 《尼恩Java面试宝典》V105版本,供后面的小伙伴参考,提升大家的 3高 架构、设计、开发水平。

《尼恩 架构笔记》《尼恩高并发三部曲》《尼恩Java面试宝典》的PDF,请到公号【技术自由圈】获取

文章目录

高并发场景分析

一般来说, 如果 10Wqps,或者20Wqps ,可使用分布式缓存来抗。

比如redis集群,6主6从:主 提供读写,从 作为备,从 不提供读写服务。

6主6从架构下,1台平均抗3w-4W并发,还可以抗住 18Wqps -24Wqps。

并且,如果QPS达到100w,通过增加redis集群中的机器数量,可以扩展缓存的容量和并发读写能力。6主6从的架构,可以扩容到 30主30从

同时,缓存数据对于应用来讲都是共享的,主从架构,实现高可用。

问题:如何解决缓存热点(热key)问题?

一旦出现缓存热点现象,例如有 10 w流量访问同一 Key,并集中于某一个 Redis 实例,可能会导致该实例的 CPU 负载过高。

这种情况下,即便增加 Redis 集群数量,也无法根本解决问题。 那么解决热 key 问题的有效手段,到底是什么呢? 非常有效的手段之一,本地缓存。其主要原因是: 本地缓存避免了 Redis 单个缓存服务器的高负载。同时,本地内存缓存拥有更快的访问速度,因为数据直接存储在应用程序的内存中,无需通过网络传输数据。

本地缓存的实质:是多副本, 空间换时间。 通过复制多份缓存副本,将请求分散,可以缓解由缓存热点引发的单个缓存服务器压力。

凡事,有利必有弊。

那么,引入本地缓存又会带来哪些问题呢? 主要问题有:

  • 数据一致性问题
  • 本地缓存数据污染问题

关于以上两个问题,尼恩之前的文章: 《场景题:假设10W人突访,你的系统如何做到不 雪崩?》,基于有赞透明多级缓存解决方案(TMC), 給大家做过一个全面的梳理。

但是, 咱们作为未来超级架构师,需要采蜜百家之长, 极度开阔自己的技术视野。

所以,这里基于《京东服务端应用多级缓存架构方案》,給大家再梳理一篇。原文的京东服务端应用多级缓存架构方案|京东云技术团队。

通用多级缓存方案

京东服务端应用多级缓存架构方案, 其实是一种常用的2级缓存的架构方案:

(1)L1一级缓存:本地缓存guava

(2)L2二级缓存:分布式缓存redis

2级缓存的架构方案的缓存访问流程:

  • 请求优先打到应用本地缓存
  • 本地缓存不存在,再去redis 集群拉取,同时缓存到本地

以上流程,类似于cache aside 旁路缓存模式。 具体的缓存访问流程,大致如下:

有关 DB与Redis 缓存之间的 cache aside 旁路缓存模式的数据一致性问题, 具体请阅读尼恩的《Java高并发核心编程 卷3 加强版》。

那么,引入本地缓存又会带来哪些问题呢? 主要问题有:

  • 数据一致性问题
  • 本地缓存数据污染问题

多级缓存数据一致性问题

如何解决多级缓存数据一致性问题呢? 主要是 多级缓存同。 主要使用发布订阅模式、或者底层组件RPC通讯机制,完成本地cache与Redis缓存的数据同步。

  • 京东采用的是 发布订阅模式。
  • 有赞采用的 底层组件RPC通讯机制
  • J2cache采用的是 发布订阅模式。

首先看看 发布订阅, 深入下去,也有两种模式:

  • 推送模式:每个频道都维护着一个客户端列表,当发送消息时,会遍历该列表并将消息推送给所有订阅者。
  • 拉取模式:发送者将消息放入一个邮箱中,所有订阅该邮箱的客户端可以随时去收取。在确保所有客户端都成功收取完整邮件后,才会删除该邮件。

首先,来看看 京东的数据一致性问题:多级缓存同步方案

  1. 运营后台保存数据,写入Redis缓存,同时利用 Redis 的发布订阅功能发布信息。
  2. 业务应用集群作为消息订阅者,接收到运营数据消息后,删除本地缓存,
  3. 当 C 端流量请求到达时,若本地缓存不存在,则从 Redis 中加载缓存至本地缓存。
  4. 防止极端情况下,Redis缓存失效,通过定时任务,将数据重新加载到Redis缓存。

其次,再看看 有赞的数据一致性问题: 使用 通信模块 实现每个节点 之间的数据一致性

具体的介绍,请参见尼恩二次创作文章: 《场景题:假设10W人突访,你的系统如何做到不 雪崩?》,基于有赞透明多级缓存解决方案(TMC), 給大家做过一个全面的梳理。

另外,行业内有部分成熟的二级缓存中间件,主要使用消息队列rocketmq /kafka,实现本地缓存与分布式缓存之间的数据一致性。这种架构方案, 具体可以参见 尼恩的架构视频 《100Wqps三级缓存组件实操》

京东发布订阅缓存同步组件选型

京东使用redis的 channel(频道)机制,完成本地cache与Redis缓存的数据同步。在 Redis 的channel(频道)机制,发布订阅模式是一种推送模式。

  • 通过使用 SUBSCRIBE 命令,可以订阅一个或多个频道,以便在相关频道发布消息时接收到通知。
  • PUBLISH 命令则用于向一个或多个频道发送消息。当某个频道有消息发布时,所有订阅该频道的客户端都会收到相应的通知。

另外,Redis 的发布订阅模式是异步的。当有消息发布到某个频道时,Redis 会异步地将消息推送给所有订阅该频道的客户端。这就意味着,客户端不会因为等待消息而阻塞,而是继续执行其他任务,仅在需要接收消息时才去获取。这种异步方式有助于提高系统的并发性和效率。

什么是缓存污染问题?

引入本地缓存又会带来哪些问题呢? 主要问题有:

  • 数据一致性问题
  • 本地缓存数据污染问题

前面咱们看了 数据一致性问题。再来看看,缓存污染问题。

缓存污染问题指的是留存在缓存中的数据,实际不会再被访问了,但是又占据了缓存空间。

如果这样的数据体量很大,甚至占满了缓存,每次有新数据写入缓存时,还需要把这些数据逐步淘汰出缓存,就会增加缓存操作的时间开销。

因此,要解决缓存污染问题,最关键的技术就是能识别出这些只访问一次或是访问次数很少的数据,在淘汰数据时,优先把他们筛选出来淘汰掉。所以,解决缓存污染的核心策略,叫做

缓存中主要常用的缓存淘汰策略:

  • random 随机
  • lru
  • lfu

(1) random 随机: 是随机选择数据进行淘汰 主要包括volatile-random和allkeys-random。随机淘汰,比如volatile-random和allkeys-random ,无法把不再访问的数据筛选出来,可能会造成缓存污染。

(2)LRU:LRU算法的基本思想是,当缓存空间不足时,要淘汰最近最少使用的缓存项,即淘汰访问时间最长的数据项。这样可以保证最常用的数据项始终保留在缓存中,从而提高系统的响应速度和吞吐量。 由于LRU策略只考虑数据的访问时效,对于只访问一次的数据来说,LRU策略无法很快将其筛选出来。

(3)LFU策略再LRU策略基础上进行了优化,在筛选数据时,首先会筛选并淘汰访问次数少的数据,然后针对访问次数相同的数据,再筛选并淘汰访问时间最久的数据。

在实际业务应用中,LRU和LFU两个策略都有应用。

LRU和LFU两种策略关注的数据访问特征各有侧重,LRU策略更加关注数据的时效性,而LFU策略更加关注数据的访问频次

通常情况下,实际应用的负载具有较好的时间局部性,所以LRU策略的应用会更加广泛。

但是,在扫描式查询的应用场景中,LFU策略就可以很好地应对缓存污染问题了,建议你优先使用。

京东本地缓存用的是guava,那么策略是LRU,LRU策略更加关注数据的时效性, 具有较好的时间局部性,使用于大部分数据场景。

大部分本地缓存用的建议使用caffeine,那么策略是LRU+LFU,既 具有较好的时间局部性,使用于大部分数据场景。也具有关注数据的访问频次, 避免扫描式查询的应用场景中数据污染问题。 具体的原理, 请参见尼恩的 《100Wqps三级缓存组件》视频,里边对caffeine 内部原理和架构,做了深入介绍,而且caffeine的性能也比guava高。

多级缓存架构的注意事项

  1. 由于本地缓存会占用 Java 进程的 JVM 内存空间,因此不适合存储大量数据,需要对缓存大小进行评估。
  2. 如果业务能够接受短时间内的数据不一致,那么本地缓存更适用于读取场景。
  3. 在缓存更新策略中,无论是主动更新还是被动更新,本地缓存都应设置有效期。
  4. 考虑设置定时任务来同步缓存,以防止极端情况下数据丢失。
  5. 在 RPC 调用中,需要避免本地缓存被污染,可以通过合理的缓存淘汰策略,来解决这个问题。
  6. 当应用重启时,本地缓存会失效,因此需要注意加载分布式缓存的时机。
  7. 通过发布/订阅解决数据一致性问题时,如果发布/订阅模式不持久化消息数据,如果消息丢失,本地缓存就会删除失败。 所以,要解决发布订阅消息的高可用问题。
  8. 当本地缓存失效时,需要使用 synchronized 进行加锁,确保由一个线程加载 Redis 缓存,避免并发更新。

说在最后:有问题可以找老架构取经

架构之路,充满了坎坷

架构和高级开发不一样 , 架构问题是open/开发式的,架构问题是没有标准答案的

正由于这样,很多小伙伴,尽管耗费很多精力,耗费很多金钱,但是,遗憾的是,一生都没有完成架构升级

所以,在架构升级/转型过程中,确实找不到有效的方案,可以来找40岁老架构尼恩求助.

昨天一个小伙伴,他们要进行 电商网站的黄金链路架构, 开始找不到思路,但是经过尼恩 10分钟语音指导,一下就豁然开朗。

参考文献

https://it.sohu.com/a/696701644_121438385

https://blog.csdn.net/crazymakercircle/article/details/128533821

推荐阅读

百亿级访问量,如何做缓存架构设计

消息推送 架构设计

阿里2面:你们部署多少节点?1000W并发,当如何部署?

美团2面:5个9高可用99.999%,如何实现?

网易一面:单节点2000Wtps,Kafka怎么做的?

字节一面:事务补偿和事务重试,关系是什么?

网易一面:25Wqps高吞吐写Mysql,100W数据4秒写完,如何实现?

亿级短视频,如何架构?

炸裂,靠"吹牛"过京东一面,月薪40K

太猛了,靠"吹牛"过顺丰一面,月薪30K

炸裂了...京东一面索命40问,过了就50W+

问麻了...阿里一面索命27问,过了就60W+

百度狂问3小时,大厂offer到手,小伙真狠!

饿了么太狠:面个高级Java,抖这多硬活、狠活

字节狂问一小时,小伙offer到手,太狠了!

收个滴滴Offer:从小伙三面经历,看看需要学点啥?

《尼恩 架构笔记》《尼恩高并发三部曲》《尼恩Java面试宝典》PDF,请到下面公号【技术自由圈】取↓↓↓

相关推荐
Aloudata32 分钟前
从Apache Atlas到Aloudata BIG,数据血缘解析有何改变?
大数据·apache·数据血缘·主动元数据·数据链路
duration~36 分钟前
Maven随笔
java·maven
水豚AI课代表39 分钟前
分析报告、调研报告、工作方案等的提示词
大数据·人工智能·学习·chatgpt·aigc
zmgst39 分钟前
canal1.1.7使用canal-adapter进行mysql同步数据
java·数据库·mysql
跃ZHD1 小时前
前后端分离,Jackson,Long精度丢失
java
blammmp1 小时前
Java:数据结构-枚举
java·开发语言·数据结构
58沈剑1 小时前
80后聊架构:架构设计中两个重要指标,延时与吞吐量(Latency vs Throughput) | 架构师之路...
架构
独行soc1 小时前
#渗透测试#SRC漏洞挖掘#深入挖掘XSS漏洞02之测试流程
web安全·面试·渗透测试·xss·漏洞挖掘·1024程序员节
暗黑起源喵1 小时前
设计模式-工厂设计模式
java·开发语言·设计模式
WaaTong2 小时前
Java反射
java·开发语言·反射