文章目录
在电商高并发场景中,缓存是提升系统性能的核心组件。然而,数据库与缓存之间的数据一致性一直是分布式系统的难点------缓存穿透、雪崩、脏数据等问题频繁出现。本文将深入分析6种典型场景的解决方案,并提供可直接落地的Java代码实现。
一、缓存一致性问题的本质
在分布式系统中,数据库与缓存的一致性矛盾来源于以下场景:
- 写后读不一致:更新数据库后,缓存未及时失效
- 并发读写竞争:多个线程同时修改同一数据
- 缓存与数据库事务不同步:部分成功导致数据错乱
写后读不一致:更新数据库后,缓存未及时失效
- 场景描述: 当应用程序更新了数据库中的数据后,如果缓存中的旧数据没有及时被清除或更新,后续的读取操作可能会从缓存中读取到过期的数据,导致"写后读不一致"。
- 举例说明: 假设有一个电商系统,用户A修改了自己的收货地址。系统首先将新地址写入数据库,但此时缓存中仍然保存着旧的收货地址。如果另一个用户B紧接着查询该用户的收货地址,可能会从缓存中读取到旧的地址信息,这就是典型的"写后读不一致"。
并发读写竞争:多个线程同时修改同一数据
- 场景描述: 当多个线程或进程同时对同一数据进行读写操作时,可能会出现并发冲突,导致数据不一致或部分更新丢失。
- 举例说明: 在一个在线论坛系统中,两个用户几乎同时编辑同一篇文章。假设系统先处理了用户A的更新请求,并将新内容写入数据库和缓存。然而,在这之前,用户B也提交了编辑请求。如果系统没有适当的并发控制机制,用户B的更新可能会覆盖用户A的更改,或者两者的结果相互干扰,导致文章内容混乱。
缓存与数据库事务不同步:部分成功导致数据错乱
- 场景描述: 在分布式系统中,缓存和数据库的操作通常不在同一个事务中管理。如果其中一个操作失败,而另一个成功,就会导致数据不一致。
- 举例说明: 考虑一个金融交易系统,用户发起一笔转账操作。系统需要同时更新数据库中的账户余额,并更新缓存中的用户余额信息。如果在更新数据库成功后,更新缓存时发生网络故障或其他异常,缓存中的余额将不会反映最新的转账结果。此时,用户再次查询余额时,可能会看到错误的金额。
二、4大核心解决方案与代码实现
方案1:延迟双删策略(针对写后读不一致)
原理
- 第一次删除:更新数据库前删除缓存
- 第二次延迟删除:数据库提交后,延迟再次删除缓存(确保并发读请求的旧缓存被清理)
java
// 商品服务 - 更新商品价格
public void updateProductPrice(Long productId, BigDecimal price) {
// 1. 首次删除缓存
redisTemplate.delete("product:" + productId);
// 2. 更新数据库
productDao.updatePrice(productId, price);
// 3. 提交事务后,延迟二次删除(建议异步执行),这里也可以使用@Scheduled(fixedDelay = 2, timeUnit = TimeUnit.SECONDS)注解实现
CompletableFuture.runAsync(() -> {
try {
Thread.sleep(2000); // 延迟2s(根据业务调整)
redisTemplate.delete("product:" + productId);
} catch (InterruptedException e) {
Thread.currentThread().interrupt();
}
});
}
适用场景
- 对一致性要求较高的写操作(如商品价格修改)
方案2:订阅数据库Binlog异步更新缓存(最终一致性)
原理
- 通过Canal监听MySQL的Binlog
- 解析变更日志后,异步更新或删除缓存
流程:
MySQL → Canal → Kafka → 消费者 → 更新Redis
Java消费者代码片段:
java
@KafkaListener(topics = "canal.product.update")
public void handleProductUpdate(ProductUpdateEvent event) {
// 根据操作类型处理缓存
if (event.getType() == OperationType.UPDATE) {
redisTemplate.delete("product:" + event.getProductId());
// 或重新加载最新数据
Product product = productDao.getById(event.getProductId());
redisTemplate.opsForValue().set(
"product:" + product.getId(),
product,
30, TimeUnit.MINUTES
);
}
}
适用场景
- 对实时性要求不高的数据(如商品描述信息)
方案3:分布式锁保证强一致性(针对并发写)
原理
- 使用Redisson分布式锁,确保同一时刻只有一个线程操作关键资源
java
public void deductStock(Long productId, int quantity) {
RLock lock = redissonClient.getLock("product:lock:" + productId);
try {
// 尝试加锁,最多等待100ms,锁自动释放时间30s
if (lock.tryLock(100, 30000, TimeUnit.MILLISECONDS)) {
// 1. 查询数据库库存
int stock = productDao.getStock(productId);
if (stock < quantity) {
throw new BusinessException("库存不足");
}
// 2. 扣减数据库库存
productDao.deductStock(productId, quantity);
// 3. 更新缓存库存(可设置较短的过期时间)
redisTemplate.opsForValue().set(
"product:stock:" + productId,
stock - quantity,
10, TimeUnit.SECONDS
);
}
} finally {
lock.unlock();
}
}
适用场景
- 秒杀、抢购等高并发写操作
方案4:先更新数据库再删缓存
原理
更新数据库后,删除缓存,短暂时间有些请求读到老缓存里的数据
java
// 商品服务 - 更新商品价格
public void updateProductPrice(Long productId, BigDecimal price) {
// 1. 更新数据库
productDao.updatePrice(productId, price);
// 2. 删除缓存
redisTemplate.delete("product:" + productId);
}
适用场景
- 并发没那么高的场景
三、实战总结:如何选择方案?
- 强一致性场景 (如金融账户):
- 分布式锁 + 同步写缓存
- 最终一致性场景 (如商品详情):
- Binlog异步更新 + 合理过期时间
- 超高并发场景 (如秒杀库存):
- 本地缓存 + Redis原子操作 + 限流降级
注意事项:
- 所有缓存操作必须添加降级开关(如Sentinel配置)
- 监控缓存命中率与数据库慢查询
- 避免"先更新数据库再删缓存"的陷阱(失败需重试)
通过以上方案组合,可有效解决电商场景下的缓存一致性问题。实际开发中需根据业务特点灵活选择,并配合监控告警体系持续优化。