基于Redis Streams的实时消息处理实战经验分享

基于Redis Streams的实时消息处理实战经验分享

业务场景描述

在我们公司的电商平台中,存在大量异步事件需要实时处理,例如用户下单、库存更新、支付回调等。这些事件对消息的可靠性、顺序性和高吞吐量有较高要求。传统的消息中间件(如Kafka、RabbitMQ)在运维成本或部署复杂度上存在一定挑战,在部分场景下难以满足"轻量、低延迟、易集成" 的需求。

经过调研和验证,Redis 6.0+ 提供的 Streams 特性在嵌入式部署、快速上手方面具有显著优势。本篇文章将分享我们在生产环境中基于 Redis Streams 构建实时消息处理的完整经验,包括技术选型、核心代码示例、踩坑解决和优化方案。

技术选型过程

  1. 消息可靠性:Redis Streams 支持持久化,且提供 ACK 机制和 Pending List,能够有效追踪消费进度。
  2. 顺序消费:同一消费者组内,可保证分片流(同一 key)中消息按写入顺序被串行消费。
  3. 横向扩展:可通过 Stream 分片(多个 Stream Key)或消费者组内多实例并行消费提高吞吐。
  4. 运营成本:Redis 已是团队基础设施,集群部署与监控成熟度高,二次成本低。
  5. 客户端生态:Lettuce、Jedis、Redisson 等客户端均有支持,编码友好。

基于以上考量,最终选型 Redis Streams,落地于现有 Redis 集群,无需额外独立中间件部署。

实现方案详解

环境与依赖

Maven 依赖(以 Lettuce 客户端为例):

xml 复制代码
<dependencies>
    <dependency>
        <groupId>io.lettuce</groupId>
        <artifactId>lettuce-core</artifactId>
        <version>6.1.5.RELEASE</version>
    </dependency>
    <dependency>
        <groupId>org.slf4j</groupId>
        <artifactId>slf4j-api</artifactId>
        <version>1.7.30</version>
    </dependency>
    <dependency>
        <groupId>ch.qos.logback</groupId>
        <artifactId>logback-classic</artifactId>
        <version>1.2.3</version>
    </dependency>
</dependencies>

SpringBoot 配置(application.yml):

yaml 复制代码
spring:
  redis:
    host: redis-cluster-host
    port: 6379
    password: your_password
    timeout: 2000ms

流程设计

  1. Producer 将事件写入 Stream:XADD
  2. 多消费者(Consumer Group)并行读取:XREADGROUP
  3. 消费确认:XACK
  4. 异常消息追踪:Pending-List 与 XCLAIM 回补处理

生产者实现

java 复制代码
import io.lettuce.core.RedisClient;
import io.lettuce.core.api.StatefulRedisConnection;
import io.lettuce.core.api.sync.RedisCommands;
import java.util.HashMap;
import java.util.Map;

public class RedisStreamProducer {
    private RedisClient client;
    private StatefulRedisConnection<String, String> connection;
    private RedisCommands<String, String> commands;
    private static final String STREAM_KEY = "orderStream";

    public RedisStreamProducer(String uri) {
        client = RedisClient.create(uri);
        connection = client.connect();
        commands = connection.sync();
    }

    public String sendMessage(Map<String, String> message) {
        // XADD key * field value [field value ...]
        return commands.xadd(STREAM_KEY, message);
    }

    public void shutdown() {
        connection.close();
        client.shutdown();
    }

    public static void main(String[] args) {
        RedisStreamProducer producer = new RedisStreamProducer("redis://:your_password@redis-host:6379/0");
        Map<String, String> order = new HashMap<>();
        order.put("orderId", "123456");
        order.put("userId", "u7890");
        order.put("amount", "258.50");
        String messageId = producer.sendMessage(order);
        System.out.println("消息发送成功, ID=" + messageId);
        producer.shutdown();
    }
}

消费者实现

java 复制代码
import io.lettuce.core.RedisClient;
import io.lettuce.core.StreamMessage;
import io.lettuce.core.api.StatefulRedisConnection;
import io.lettuce.core.api.sync.RedisCommands;
import io.lettuce.core.models.stream.Consumer;
import io.lettuce.core.models.stream.PendingMessage;

import java.time.Duration;
import java.util.List;
import java.util.Map;

public class RedisStreamConsumer {
    private RedisClient client;
    private StatefulRedisConnection<String, String> connection;
    private RedisCommands<String, String> commands;

    private static final String STREAM_KEY = "orderStream";
    private static final String GROUP_NAME = "orderGroup";
    private static final String CONSUMER_NAME = "consumer-1";

    public RedisStreamConsumer(String uri) {
        client = RedisClient.create(uri);
        connection = client.connect();
        commands = connection.sync();
        // 创建消费者组, 如果已创建可 ignore
        try {
            commands.xgroupCreate(STREAM_KEY, GROUP_NAME, "$", true);
        } catch (Exception e) {
            // Group exists
        }
    }

    public void consume() {
        while (true) {
            // 从 Pending List 先处理未 ack 的消息
            List<PendingMessage> pending = commands.xpending(STREAM_KEY, GROUP_NAME, Range.unbounded(), Limit.from(10));
            for (PendingMessage pm : pending) {
                // 重新消费
                StreamMessage<String, String> msg = commands.xclaim(
                    STREAM_KEY,
                    GROUP_NAME,
                    CONSUMER_NAME,
                    5000,
                    pm.getId());
                process(msg.getBody());
                commands.xack(STREAM_KEY, GROUP_NAME, pm.getId());
            }

            // 正常读取新消息
            List<StreamMessage<String, String>> messages = commands.xreadgroup(
                Consumer.from(GROUP_NAME, CONSUMER_NAME),
                XReadArgs.StreamOffset.lastConsumed(STREAM_KEY));
            if (messages != null) {
                for (StreamMessage<String, String> msg : messages) {
                    process(msg.getBody());
                    commands.xack(STREAM_KEY, GROUP_NAME, msg.getId());
                }
            }

            // 轮询间隔
            try {
                Thread.sleep(200);
            } catch (InterruptedException e) {
                Thread.currentThread().interrupt();
                break;
            }
        }
    }

    private void process(Map<String, String> body) {
        // 业务处理逻辑
        System.out.println("处理订单: " + body);
    }

    public void shutdown() {
        connection.close();
        client.shutdown();
    }

    public static void main(String[] args) {
        RedisStreamConsumer consumer = new RedisStreamConsumer("redis://:your_password@redis-host:6379/0");
        consumer.consume();
        consumer.shutdown();
    }
}

踩过的坑与解决方案

  1. 消息重复消费

    • 问题:消费者处理过程中抛出异常导致 ack 未发送,Pending List 中累积大量消息。
    • 解决:定期扫描 Pending List,并结合 XCLAIM 将"活跃但挂起"消息重新分配给健康消费者处理;同时在业务端做好幂等控制。
  2. 消息积压与内存压力

    • 问题:Stream 长度持续增长,Redis 实例内存压力上升。
    • 解决:使用 XTRIM MAXLEN ~ N 对流进行修剪,结合业务保留时间策略,定期分批清理历史消息。
  3. 消费者实例重启后状态丢失

    • 问题:未及时恢复 Pending List 中未处理消息,导致部分消息长时间滞留。
    • 解决:消费者启动时优先处理 Pending List,再进入正常消费流程;并通过定时任务对挂起较久的消息进行报警或二次补偿处理。

总结与最佳实践

  1. Redis Streams 适合轻量级、低运维成本的实时消息场景,结合 ACK、Pending List 能保证高可靠性。
  2. 采用消费者组(Consumer Group)可支持横向扩展,读写分离与顺序消费兼得。
  3. 业务侧必须做好幂等设计,避免消息重复带来的副作用。
  4. 对 Stream 进行合理修剪,避免数据无节制增长导致内存问题。
  5. 建议结合监控告警,对 Pending List 长度、消费者积压情况进行实时监控。

通过以上实践,我们在千万级日事件量下实现了稳定的实时消息处理平台,整体延迟控制在 50ms 内,且系统可线性扩展。希望本文的实战经验和代码示例能助力大家快速上手 Redis Streams,构建高性能的实时消息处理系统。

相关推荐
weisian15128 分钟前
Prometheus-3--Prometheus是怎么抓取Java应用,Redis中间件,服务器环境的指标的?
java·redis·prometheus
回家路上绕了弯2 小时前
Redis 全方位实战指南:从入门到精通的缓存利器
redis·后端
茉莉玫瑰花茶3 小时前
Redis 常用数据结构以及单线程模型
数据库·redis·缓存·bootstrap
冷崖3 小时前
Redis存储原理与数据模型(下)
数据库·redis·缓存
Monika Zhang4 小时前
Memcached缓存与Redis缓存的区别、优缺点和适用场景
redis·缓存·memcached
木易双人青4 小时前
03-List列表数据类型
redis
LLLLYYYRRRRRTT5 小时前
9. Linux 交换空间管理
linux·数据库·redis
一勺菠萝丶10 小时前
零基础掌握 Scrapy 和 Scrapy-Redis:爬虫分布式部署深度解析
redis·爬虫·scrapy
转身後 默落14 小时前
01.Redis 概述
数据库·redis·缓存
gs8014018 小时前
GitLab Docker Compose 迁移后 Redis 权限问题排查与解决
redis·docker·gitlab