分布式锁选型+缓存db一致性

基于Redis Cluster模式

setnx就可以实现加锁,del实现解锁,但是这样不具备原子性,存在无法释放的可能。

因此可以使用在加锁时增加过期时间命令,做到原子性的加锁并且可以自动释放。

一些问题:

  • key的过期时间不能设置太长,避免其他线程阻塞
  • 可能出现误解锁,比如当前线程在锁期间没有完成,解锁时锁已经被别人占据,导致解掉别人的锁
  • 获取锁是非阻塞的,直接返回结果
  • 存在锁公平问题,需要自己实现

解决:

  • 守护线程对当前任务进度进行监控,及时续过期时间,知道锁释放或任务完成
  • 释放验证,释放时比对线程id和锁的value,防止释放不属于自己的锁
  • 阻塞机制,只能通过代码比如死循环去实现
  • 公平机制需要依赖等待队列来实现

可重入性需要自己开发,安全性方面可能丢失锁(redis主从复制)

可以了解一下基于多节点的高可用分布式锁的算法 RedLock。

缓存一致性问题解决讨论(增加思考能力)

加入缓存就不可避免的引入数据一致性的问题,所以在这里讨论,先说结论,我在项目上使用的是旁路缓存模式------

读策略:

从缓存中读取数据;如果缓存命中,则直接返回数据;如果缓存不命中,则从数据库中查询数据;查询到数据后,将数据写入到缓存中,并且返回给用户。

写策略:

更新数据库中(HBASE,Redis)的记录;删除缓存记录。

然后探讨一下各种模式的优缺点以及相应的解决方案。

相关推荐
一切皆有迹可循2 小时前
SpringBoot整合MinIO快速入门:实现分布式文件存储与管理
spring boot·分布式·后端
朴拙数科4 小时前
gevent 高并发、 RabbitMQ 消息队列、Celery 分布式的案例和说明
分布式·rabbitmq·ruby
2401_824256865 小时前
Spark Core编程
大数据·分布式·spark
煤烦恼5 小时前
Spark core
大数据·分布式·spark
IT成长日记6 小时前
【Kafka基础】消费者命令行完全指南:从基础到高级消费
分布式·kafka·消费者命令行
Gae Immortal6 小时前
Spark
大数据·分布式·spark
苏小夕夕6 小时前
spark(一)
大数据·分布式·spark
佳腾_7 小时前
【消息队列kafka_中间件】一、快速入门分布式消息队列
分布式·云原生·中间件·kafka
掘金-我是哪吒7 小时前
分布式微服务系统架构第94集:Kafka 消费监听处理类,redisson延时队列
分布式·微服务·kafka·系统架构·linq
字节源流11 小时前
【RabbitMQ】延迟队列
分布式·rabbitmq