热点 Key 指单个 Key 被高并发访问(如爆款商品),导致 Redis 压力骤增。解决方案应针对 "单个 Key 高并发":
- 分片缓存 :将热点 Key 分散到不同 Redis 节点(如按一致性哈希算法分片)。
- 本地缓存:在应用层缓存热点数据(如 Caffeine),减少 Redis 压力。
- 增加缓存副本 :为热点数据 增加缓存副本 ,将热点数据复制 到多个缓存节点上,分散访问压力。(例如,使用 Redis 的主从复制 ,将热点 数据存 储在多个从节点上,分散读请求。)
热点 Key 的产生原因(除 Redis 宕机外)
- 热点 Key 的核心原因是突发流量或热门事件,例如:
- 突发活动:秒杀、直播带货导致某个商品 Key 被高频访问。
- 热点事件:微博热搜话题对应的缓存 Key。
- 数据倾斜:数据库 中某类数据天然访问量 高(如高频查询的用户 ID)。
一致性hash了解过吗?
一致性哈希是一种用于分布式 系统中的负载均衡算法 ,它的核心目标 是:在节点数量 发生变化 时,尽量减少数据迁移 ,同时保持 数据的均匀分布。
- 主要目的是将数据均匀 分布到多个节点 上,并在节点增减时尽可能减少 数据的重新分配。
核心原理
-
哈希环(Hash Ring):
- 一致性哈希把整个哈希值空间 组织成一个环状结构(0 ~ 2³² - 1)。
-
节点映射:
- 每个节点 通过哈希函数 (如 FNV、MD5 等)被映射到环上的一个点。
-
数据映射:
- 数据项 (key)同样通过哈希函数映射到环上。
- 每个数据项存储在顺时针方向遇到的第一个节点上。
节点变动对数据影响最小
-
增加节点:
- 新节点插入环后,只接管其顺时针方向上第一个节点的部分数据,其余数据不受影响。
-
删除节点:
- 节点下线后,其数据由顺时针方向的下一个节点接管。
这保证了在节点动态增减的情况下,只需迁移小部分数据,极大提升了系统的可扩展性与稳定性。
应用场景
- 分布式缓存(如 Redis Cluster)
- 负载均衡(如 Nginx+Consistent Hash)
- 分布式存储(如 Cassandra、Amazon Dynamo)
删除大key的方式
- 分批删除 :将大key分批删除,使用
SCAN
迭代 获取大key中的元素 ,逐个删除
shell
HSCAN bigkey 0 COUNT 100
HDEL bigkey f1 f2 f3 ...
- 异步删除 :利用redis4.0引入的
UNLINK
代替DEL
,在后台进行删除,减少阻塞
shell
UNLINK bigkey
- 设置过期时间 :为大key设置过期时间 ,等过期 在后台 自己删除
shell
EXPIRE bigkey 60
- 使用lua脚本 :使用lua脚本代替发大量操作 ,减少网络IO
lua
-- 分批删除 set 中的成员(每次删100个)
local members = redis.call('SRANDMEMBER', KEYS[1], 100)
for i=1,#members do
redis.call('SREM', KEYS[1], members[i])
end
return #members