Redis缓存更新策略

1. 主动更新-4种核心缓存更新策略

核心原则:根据业务的 "读写比例""一致性要求""性能要求" 选择策略,优先保证数据一致性,其次优化性能。

1.1. Cache-Aside(旁路缓存)

这是最常用、最经典的策略,也叫 "先查缓存,再查数据库,更新时先更库再删缓存"。

  1. 读取数据:先查询缓存,命中则直接返回;未命中则查询数据库,将结果写入缓存并返回。
  2. 更新数据:先更新数据库,再删除缓存(而非更新缓存)。
java 复制代码
@Service
public class UserServiceCacheAside {
    
    @Resource
    private UserMapper userMapper;
    
    @Resource
    private RedisTemplate<String, Object> redisTemplate;
    
    public User getUserById(Long userId) {
        String cacheKey = "user:" + userId;
        // 1. 查询缓存
        User user = (User) redisTemplate.opsForValue().get(cacheKey);
        if (user != null) {
            return user;  //缓存命中,直接返回
        }
        // 2. 缓存未命中,查询数据库
        user = userMapper.selectById(id);
        if (user != null) {
            // 3. 将数据库结果写入缓存(设置过期时间)
            redisTemplate.opsForValue().set(cacheKey, user, 30, TimeUnit.MINUTES);
        }
        return user;
    }
    
    public void updateUser(User user) {
        // 1. 先更新数据库
        userMapper.updateById(user);
        // 2. 再删除缓存(而非更新缓存,避免并发问题)
        String cacheKey = "user:" + user.getId();
        redisTemplate.delete(cacheKey);
    }
}
  1. 优点

    • 逻辑简单,易于实现;适合读多写少的业务场景;
    • 避免 "更新缓存" 带来的并发数据不一致问题(比如两个线程同时更新,缓存可能存旧值)。
  2. 缺点

    • 缓存未命中时会有 "缓存穿透" 的风险(可通过布隆过滤器解决);
    • 数据库更新后、缓存删除前,若有读请求,可能读到旧值(概率极低,可接受)。

1.2. Write-Through(写穿透)

更新时 "先更缓存,再更数据库",读取时只查缓存(缓存一定有最新数据)。

  1. 读取数据:直接从缓存读取,缓存必然命中(因为更新时同步写缓存);
  2. 更新数据:先更新缓存;再由缓存同步更新数据库(通常是缓存框架自动完成)。
java 复制代码
@Service
public class UserWriteThroughService {

    @Autowired
    private RedisTemplate<String, Object> redisTemplate;

    @Autowired
    private UserMapper userMapper;

    /**
     * 新增用户(Write Through:先写缓存,再写数据库)
     * 加事务保证缓存和数据库要么都成功,要么都失败
     */
    @Transactional(rollbackFor = Exception.class)
    public void addUser(User user) {
        // 1. 先写缓存(设置过期时间,兜底)
        String cacheKey = "user:write_through:" + user.getId();
        redisTemplate.opsForValue().set(cacheKey, user, 1, TimeUnit.HOURS);

        // 2. 同步写数据库(若数据库写入失败,事务回滚,缓存也会被删除)
        int insertCount = userMapper.insertUser(user);
        if (insertCount <= 0) {
            // 数据库写入失败,主动删除缓存,避免脏数据
            redisTemplate.delete(cacheKey);
            throw new RuntimeException("新增用户到数据库失败");
        }
    }

    /**
     * 更新用户(Write Through:先更新缓存,再更新数据库)
     */
    @Transactional(rollbackFor = Exception.class)
    public void updateUser(User user) {
        String cacheKey = "user:write_through:" + user.getId();
        // 1. 先更新缓存(若缓存不存在,先查数据库再更新,保证缓存有数据)
        User oldUser = (User) redisTemplate.opsForValue().get(cacheKey);
        if (oldUser == null) {
            oldUser = userMapper.selectUserById(user.getId());
            if (oldUser == null) {
                throw new RuntimeException("用户不存在,ID: " + user.getId());
            }
        }
        
        redisTemplate.opsForValue().set(cacheKey, user, 1, TimeUnit.HOURS);

        // 2. 同步更新数据库
        int updateCount = userMapper.updateUser(user);
        if (updateCount <= 0) {
            // 数据库更新失败,回滚缓存(恢复旧值)
            redisTemplate.opsForValue().set(cacheKey, oldUser, 1, TimeUnit.HOURS);
            throw new RuntimeException("更新用户到数据库失败,ID: " + user.getId());
        }
    }

    /**
     * 读取用户(Write Through:只查缓存,不查数据库)
     */
    public User getUserById(Long userId) {
        String cacheKey = "user:write_through:" + userId;
        User user = (User) redisTemplate.opsForValue().get(cacheKey);
        if (user == null) {
            // 理论上 Write Through 策略下缓存一定有数据,此处仅做异常兜底
            user = userMapper.selectUserById(userId);
            if (user != null) {
                redisTemplate.opsForValue().set(cacheKey, user, 1, TimeUnit.HOURS);
            }
        }
        return user;
    }
}
  1. 优点

    • 读取性能极高,无需访问数据库;数据一致性强,缓存与数据库同步更新。
  2. 缺点

    • 写入性能低(每次写都要操作缓存 + 数据库);
    • 数据库写入失败会导致缓存与数据库不一致(需加事务 / 重试)。

1.3. Write-Behind(写回)

也叫 "延迟更新",更新时只更缓存,不立即更数据库,而是等缓存过期 / 淘汰时,再批量同步到数据库。

  1. 更新流程:更新缓存,并标记缓存为 "脏数据";缓存过期 / 被淘汰时,异步将 "脏数据" 批量写入数据库。
  2. 读取流程:与 Cache Aside 一致(先查缓存,未命中查库)。
java 复制代码
/**
 * 业务场景:用户点赞数(写多读少,允许短时间缓存与数据库不一致)
 */
@Service
public class LikeCountWriteBackService {

    // Redis Key前缀:用户点赞数缓存
    private static final String CACHE_LIKE_COUNT_KEY = "like:count:";
    // Redis Key:脏数据标记(记录需要同步到数据库的用户ID)
    private static final String DIRTY_DATA_SET_KEY = "like:dirty:user:ids";
    // 缓存过期时间(兜底,避免脏数据永久不刷新)
    private static final long CACHE_EXPIRE_TIME = 24 * 60 * 60;

    @Resource
    private RedisTemplate<String, Object> redisTemplate;

    @Resource
    private LikeCountMapper likeCountMapper;

    /**
     * 核心操作:更新用户点赞数(只更缓存,标记脏数据)
     * @param userId 用户ID
     * @param increment 增加的点赞数(正数)
     */
    public void updateLikeCount(Long userId, int increment) {
        String cacheKey = CACHE_LIKE_COUNT_KEY + userId;
        try {
            // 1. 原子更新Redis缓存中的点赞数(避免并发问题)
            redisTemplate.opsForValue().increment(cacheKey, increment);
            // 设置缓存过期时间(兜底)
            redisTemplate.expire(cacheKey, CACHE_EXPIRE_TIME, TimeUnit.SECONDS);

            // 2. 将用户ID加入脏数据集(标记为需要同步到数据库)
            // 使用ZSet存储,score为当前时间戳,便于后续按时间筛选
            redisTemplate.opsForZSet().add(DIRTY_DATA_SET_KEY, userId, System.currentTimeMillis());
        } catch (Exception e) {
            // 异常时降级:直接更新数据库(避免数据丢失)
            fallbackUpdateDb(userId, increment);
        }
    }

    /**
     * 读取用户点赞数(先查缓存,未命中查库并回填缓存)
     * @param userId 用户ID
     * @return 最新点赞数
     */
    public Long getLikeCount(Long userId) {
        String cacheKey = CACHE_LIKE_COUNT_KEY + userId;
        // 1. 先查缓存
        Object cacheValue = redisTemplate.opsForValue().get(cacheKey);
        if (cacheValue != null) {
            return Long.parseLong(cacheValue.toString());
        }
        // 2. 缓存未命中:查数据库
        Long dbCount = likeCountMapper.selectLikeCountByUserId(userId);
        if (dbCount == null) {
            dbCount = 0L;
        }
        // 3. 回填缓存(并标记为脏数据,避免后续同步时覆盖)
        redisTemplate.opsForValue().set(cacheKey, dbCount);
        redisTemplate.expire(cacheKey, CACHE_EXPIRE_TIME, TimeUnit.SECONDS);
        redisTemplate.opsForZSet().add(DIRTY_DATA_SET_KEY, userId, System.currentTimeMillis());

        return dbCount;
    }

    /**
     * 核心异步任务:定时将脏数据同步到数据库(Write Back核心)
     * 定时规则:每5分钟执行一次(可根据业务调整)
     */
    @Scheduled(cron = "0 */5 * * * ?")
    @Transactional(rollbackFor = Exception.class)
    public void syncDirtyDataToDb() {
        ZSetOperations<String, Object> zSetOps = redisTemplate.opsForZSet();

        // 1. 批量获取脏数据集中的用户ID(最多取1000条,避免单次同步过多)
        Set<Object> dirtyUserIds = zSetOps.range(DIRTY_DATA_SET_KEY, 0, 999);
        if (dirtyUserIds == null || dirtyUserIds.isEmpty()) {
            return;
        }

        // 2. 遍历脏数据,同步到数据库
        List<Long> failUserIds = new ArrayList<>(); // 记录同步失败的用户ID
        for (Object userIdObj : dirtyUserIds) {
            Long userId = Long.parseLong(userIdObj.toString());
            String cacheKey = CACHE_LIKE_COUNT_KEY + userId;

            try {
                // 2.1 获取缓存中的最新点赞数
                Object cacheCountObj = redisTemplate.opsForValue().get(cacheKey);
                if (cacheCountObj == null) {
                    zSetOps.remove(DIRTY_DATA_SET_KEY, userId); // 移除脏数据标记
                    continue;
                }
                Long cacheCount = Long.parseLong(cacheCountObj.toString());
                // 2.2 更新数据库
                likeCountMapper.updateLikeCountByUserId(userId, cacheCount);
                // 2.3 同步成功:移除脏数据标记
                zSetOps.remove(DIRTY_DATA_SET_KEY, userId);
            } catch (Exception e) {
                failUserIds.add(userId); // 记录失败ID,后续重试
            }
        }

        // 3. 处理同步失败的用户ID(简单重试:重新加入脏数据集)
        if (!failUserIds.isEmpty()) {
            for (Long failUserId : failUserIds) {
                zSetOps.add(DIRTY_DATA_SET_KEY, failUserId, System.currentTimeMillis());
            }
        }
    }

    /**
     * 降级策略:缓存更新失败时,直接更新数据库
     */
    private void fallbackUpdateDb(Long userId, int increment) {
        try {
            Long currentCount = likeCountMapper.selectLikeCountByUserId(userId);
            if (currentCount == null) {
                currentCount = 0L;
            }
            likeCountMapper.updateLikeCountByUserId(userId, currentCount + increment);
        } catch (Exception e) {
            // 可进一步接入消息队列/告警,保证数据不丢失
        }
    }
}
  1. 优点:

    • 写入性能极高(只需操作缓存,数据库异步批量更新);
    • 适合写多读少的场景(如计数器、点赞数)。
  2. 缺点

    • 数据一致性差(缓存未同步到数据库时,服务宕机会丢失数据);
    • 实现复杂(需处理脏数据标记、异步同步、数据恢复)。

1.4. 刷新过期(Refresh-Ahead)

本质是 Cache-Aside(旁路缓存)的优化 / 增强版

  1. 更新流程:与 Cache Aside 一致(先更新数据库,再删除缓存)。
  2. 读取流程 :先查询缓存,未命中则查询数据库,将结果写入缓存并返回;命中则检查缓存剩余过期时间,若剩余过期时间 ≥ 阈值:直接返回缓存中的旧值;若剩余过期时间 < 阈值:异步触发缓存刷新(后台查数据库最新数据 → 重写缓存并重置 TTL),当前请求仍返回缓存旧值。
java 复制代码
/**
 * Refresh-Ahead(提前刷新)策略实现示例
 * 核心逻辑:访问缓存时检查剩余过期时间,若小于阈值则异步刷新缓存,当前请求仍返回旧值
 */
@Service
public class RefreshAheadCacheService {

    // 缓存过期时间(示例:30分钟)
    private static final long CACHE_TTL_SECONDS = 30 * 60;
    // Refresh-Ahead 触发阈值(过期时间剩余10%时触发,示例:3分钟)
    private static final long REFRESH_THRESHOLD_SECONDS = CACHE_TTL_SECONDS / 10;

    @Resource
    private RedisTemplate<String, Object> redisTemplate;

    @Resource
    private ProductCategoryMapper productCategoryMapper;

    /**
     * 获取商品分类数据(核心Refresh-Ahead逻辑)
     */
    public ProductCategory getCategoryWithRefreshAhead(Long categoryId) {
        String cacheKey = "category:" + categoryId;
        ValueOperations<String, Object> valueOps = redisTemplate.opsForValue();

        // 1. 先查缓存
        ProductCategory category = (ProductCategory) valueOps.get(cacheKey);
        if (category == null) {
            // 缓存未命中:查库 + 写入缓存(常规Cache Aside逻辑)
            category = productCategoryMapper.selectById(categoryId);
            if (category != null) {
                redisTemplate.opsForValue().set(cacheKey, category, CACHE_TTL_SECONDS, TimeUnit.SECONDS);
            }
            return category;
        }

        // 2. 缓存命中:检查剩余过期时间,判断是否触发Refresh-Ahead
        Long remainExpireSeconds = redisTemplate.getExpire(cacheKey, TimeUnit.SECONDS);
        // 剩余时间小于阈值 且 缓存未过期(避免已过期的情况)
        if (remainExpireSeconds != null && remainExpireSeconds > 0 
                && remainExpireSeconds < REFRESH_THRESHOLD_SECONDS) {
            // 3. 异步刷新缓存(不阻塞当前请求)
            asyncRefreshCategoryCache(categoryId, cacheKey);
        }

        // 当前请求仍返回旧值,异步刷新不影响响应速度
        return category;
    }

    /**
     * 异步刷新缓存(核心:不阻塞主线程)
     */
    @Async("refreshExecutor") // 指定自定义异步线程池(避免用默认线程池)
    public void asyncRefreshCategoryCache(Long categoryId, String cacheKey) {
        try {
            // 1. 从数据库查询最新数据
            ProductCategory latestCategory = productCategoryMapper.selectById(categoryId);
            if (latestCategory != null) {
                // 2. 重新设置缓存(覆盖旧值 + 重置过期时间)
                redisTemplate.opsForValue().set(cacheKey, latestCategory, CACHE_TTL_SECONDS, TimeUnit.SECONDS);
            }
        } catch (Exception e) {
            System.err.println("Refresh-Ahead刷新缓存失败:Key=" + cacheKey + ",原因:" + e.getMessage());
        }
    }
}

线程池配置

java 复制代码
@Configuration
@EnableAsync // 开启异步功能
public class ThreadPoolConfig {
    
    @Bean
    public ThreadPoolTaskExecutor refreshExecutor() {
        ThreadPoolTaskExecutor executor = new ThreadPoolTaskExecutor();
        executor.setCorePoolSize(5);
        executor.setMaxPoolSize(20);
        executor.setQueueCapacity(100);
        executor.setThreadNamePrefix("cache-refresh-");
        executor.setRejectedExecutionHandler(new ThreadPoolExecutor.CallerRunsPolicy());
        executor.initialize();
        return executor;
    }
}
  1. 优点

    • 保证数据一致性;避免 "缓存穿透" 的风险。
    • 仅在 "缓存快过期且被访问" 时刷新,比定时刷新更精准,避免无意义的全量刷新,节省资源;
  2. 缺点

    • 需额外开发 "过期时间预判""异步刷新""线程池管理" 逻辑,增加开发和维护成本;
    • 触发刷新后、异步更新完成前,客户端仍会读取到旧值(窗口极短,通常可接受);
    • 异步线程池耗尽、数据库查询失败等,可能导致刷新失败,需增加重试 / 日志监控机制;
    • 刷新阈值(如总 TTL 的 10%)设置不合理时:过大→频繁刷新浪费资源,过小→刷新完成前缓存已过期。

2. 3种补充策略

2.1. Read-Through(读穿透)

Read-Through是Cache Aside的 "封装版 / 框架版",核心是封装缓存读取逻辑,让业务层聚焦业务而非缓存操作。

只需要将Cache Aside是缓存的逻辑封装,所有业务复用即可。

  1. 优点 :

    • 封装性好,应用代码无需关心缓存逻辑
    • 集中处理缓存加载,减少冗余代码
    • 适合只读或读多写少的数据
  2. 缺点:

    • 缓存未命中时引发数据库请求,可能导致数据库负载增加
    • 无法直接处理写操作,需要与其他策略结合使用
    • 需要额外维护一个缓存管理层
  3. 适用场景

    • 读操作频繁的业务系统
    • 需要集中管理缓存加载逻辑的应用
    • 复杂的缓存预热和加载场景

2.2. 最终一致性(Eventual Consistency)

最终一致性策略基于分布式事件系统实现数据同步:

  1. 数据变更时发布事件到消息队列
  2. 缓存服务订阅相关事件并更新缓存
  3. 即使某些操作暂时失败,最终系统也会达到一致状态 首先定义数据变更事件:
java 复制代码
@Data
@AllArgsConstructor
public class DataChangeEvent {
    private String entityType;
    private String entityId;
    private String operation; // CREATE, UPDATE, DELETE
    private String payload;   // JSON格式的实体数据
}

实现事件发布者:

java 复制代码
@Component
public class DataChangePublisher {
    
    @Autowired
    private KafkaTemplate<String, DataChangeEvent> kafkaTemplate;
    
    private static final String TOPIC = "data-changes";
    
    public void publishChange(String entityType, String entityId, String operation, Object entity) {
        try {
            // 将实体序列化为JSON
            String payload = new ObjectMapper().writeValueAsString(entity);
            
            // 创建事件
            DataChangeEvent event = new DataChangeEvent(entityType, entityId, operation, payload);
            
            // 发布到Kafka
            kafkaTemplate.send(TOPIC, entityId, event);
        } catch (Exception e) {
            log.error("Failed to publish data change event", e);
            throw new RuntimeException("Failed to publish event", e);
        }
    }
}

实现事件消费者更新缓存:

java 复制代码
@Component
@Slf4j
public class CacheUpdateConsumer {
    
    @Autowired
    private RedisTemplate<String, Object> redisTemplate;
    
    private static final long CACHE_EXPIRATION = 30;
    
    @KafkaListener(topics = "data-changes")
    public void handleDataChangeEvent(DataChangeEvent event) {
        try {
            String cacheKey = buildCacheKey(event.getEntityType(), event.getEntityId());
            
            switch (event.getOperation()) {
                case "CREATE":
                case "UPDATE":
                    // 解析JSON数据
                    Object entity = parseEntity(event.getPayload(), event.getEntityType());
                    // 更新缓存
                    redisTemplate.opsForValue().set(
                            cacheKey, entity, CACHE_EXPIRATION, TimeUnit.MINUTES);
                    log.info("Updated cache for {}: {}", cacheKey, event.getOperation());
                    break;
                    
                case "DELETE":
                    // 删除缓存
                    redisTemplate.delete(cacheKey);
                    log.info("Deleted cache for {}", cacheKey);
                    break;
                    
                default:
                    log.warn("Unknown operation: {}", event.getOperation());
            }
        } catch (Exception e) {
            log.error("Error handling data change event: {}", e.getMessage(), e);
            // 失败处理:可以将失败事件放入死信队列等
        }
    }
    
    private String buildCacheKey(String entityType, String entityId) {
        return entityType.toLowerCase() + ":" + entityId;
    }
    
    private Object parseEntity(String payload, String entityType) throws JsonProcessingException {
        // 根据实体类型选择反序列化目标类
        Class<?> targetClass = getClassForEntityType(entityType);
        return new ObjectMapper().readValue(payload, targetClass);
    }
    
    private Class<?> getClassForEntityType(String entityType) {
        switch (entityType) {
            case "User": return User.class;
            case "Product": return Product.class;
            // 其他实体类型
            default: throw new IllegalArgumentException("Unknown entity type: " + entityType);
        }
    }
}

使用示例:

java 复制代码
@Service
@Transactional
public class UserServiceEventDriven {
    
    @Autowired
    private UserRepository userRepository;
    
    @Autowired
    private DataChangePublisher publisher;
    
    public User createUser(User user) {
        // 1. 保存用户到数据库
        User savedUser = userRepository.save(user);
        // 2. 发布创建事件
        publisher.publishChange("User", savedUser.getId().toString(), "CREATE", savedUser);
        return savedUser;
    }
    
    public User updateUser(User user) {
        // 1. 更新用户到数据库
        User updatedUser = userRepository.save(user);
        // 2. 发布更新事件
        publisher.publishChange("User", updatedUser.getId().toString(), "UPDATE", updatedUser);
        return updatedUser;
    }
    
    public void deleteUser(Long userId) {
        // 1. 从数据库删除用户
        userRepository.deleteById(userId);
        // 2. 发布删除事件
        publisher.publishChange("User", userId.toString(), "DELETE", null);
    }
}
  1. 优点 :

    • 支持分布式系统中的数据一致性
    • 削峰填谷,减轻系统负载峰值
    • 服务解耦,提高系统弹性和可扩展性
  2. 缺点:

    • 一致性延迟,只能保证最终一致性
    • 实现和维护更复杂,需要消息队列基础设施
    • 可能需要处理消息重复和乱序问题
  3. 适用场景

    • 大型分布式系统
    • 可以接受短暂不一致的业务场景
    • 需要解耦数据源和缓存更新逻辑的系统

2.3. 过期淘汰(被动更新)

  • 本质:依赖 Redis 自身的过期策略(如 TTL 过期、LRU 淘汰)被动更新缓存,配合核心策略使用(比如 Cache Aside 中给缓存设 TTL,到期自动淘汰旧数据)。
  • 特点:不主动更新,而是 "被动清理旧数据",是所有策略的基础保障(避免缓存永久有效)。

简单说:过期淘汰是 "策略目标"(让过期缓存被清理),惰性删除 + 定期删除是 "技术手段"

2.3.1. 惰性删除(Lazy Delete)
  • 逻辑:当用户访问某个 key 时,Redis 先检查该键是否过期,若过期则立即删除,不返回值;
  • 定位 :过期淘汰的核心实现手段之一,被动触发,节省 CPU 资源(不用轮询所有 key)。
2.3.2. 定期删除(Periodic Delete)
  • 逻辑 :Redis 会启动一个后台线程,每隔一段时间(默认 100ms) 随机抽取一部分过期 key 检查,删除其中已过期的;为了不阻塞主线程,每次检查的时间和数量都有限制。
  • 定位 :补充惰性删除的不足(避免过期 key 长期不被访问,一直占用内存),主动但轻量化
2.3.3. 两者结合的原因
  • 只靠惰性删除:过期 key 若长期不被访问,会一直占内存;
  • 只靠定期删除:轮询所有 key 会消耗大量 CPU,影响性能;
  • 结合使用:既保证了过期 key 最终会被清理(定期删除兜底),又避免了过度消耗 CPU(惰性删除减少检查),是 Redis 平衡性能和内存的最优方案。

3. 内存淘汰

内存淘汰属于「兜底型缓存清理机制」,是指 Redis 达到最大内存(maxmemory)时,按照预设规则(如 LRU、LFU、随机等)自动淘汰部分缓存数据,本质是 "内存管理手段",而非 "保证数据一致性的更新策略"。

  • 典型行为:Redis 内存占满后,淘汰最少使用的 key(LRU 策略);
  • 核心目标 :当 Redis 内存达到 maxmemory 上限时,主动淘汰部分键,释放内存以保证 Redis 能继续接收新写入;
  • 核心定位 :目的是避免 Redis 内存溢出,而非保证缓存与数据库的一致性 ------ 淘汰的可能是最新的、也可能是旧的缓存数据,完全不考虑业务逻辑;
  • 常见策略
    • volatile-lru:淘汰设置了过期时间的键中,最近最少使用的;
    • allkeys-lru:淘汰所有键中最近最少使用的;
    • volatile-ttl:淘汰设置了过期时间的键中,剩余过期时间最短的;
    • noeviction(默认):不淘汰任何键,内存满时拒绝新写入并返回错误;
  • 是否属于:❌ 严格来说,不算 "业务层面的缓存更新策略",而是 Redis 底层的内存保护机制;但广义上可视为 "被动清理缓存的补充手段"。

简单记:主动更新是 "主动做事",过期淘汰是 "被动兜底做事",内存淘汰是 "实在没内存了才清理",前两者属于缓存更新策略范畴,后者是底层机制。

相关推荐
kuntli2 小时前
@Transactional注解失效的六大场景
spring
y = xⁿ2 小时前
【从零开始学习Redis|第五篇】Redis 常见数据类型和应用场景
数据库·redis·学习·缓存
一直都在5722 小时前
Docker 从入门到实战系列(四):镜像 / 容器导入导出、容器互联与 SpringBoot 微服务打包
spring boot·docker·微服务
future02102 小时前
Spring 核心原理学习路线(完结汇总):7 篇文章串起 IOC、AOP、事务与 Boot
后端·学习·spring
智能工业品检测-奇妙智能3 小时前
docker如何进行离线部署springboot项目
spring boot·docker·容器
用户23063627125393 小时前
SpringAIAlibaba学习使用 ---MCP使用
spring
xiaoye37083 小时前
哪些因素会影响Spring Bean的线程安全?
java·spring
lclcooky3 小时前
Spring 核心技术解析【纯干货版】- Ⅶ:Spring 切面编程模块 Spring-Instrument 模块精讲
前端·数据库·spring
qq_12498707533 小时前
基于springboot的微信小程序的博物馆文创系统的设计与实现(源码+论文+部署+安装)
java·spring boot·后端·spring·微信小程序·毕业设计·计算机毕设