Kafka的死信队列

死信队列(Dead-Letter Queue,DLQ)就是消息的"太平间" ------

正常队列里"死掉"的消息,统一拉到这儿来,方便后续排查、重试或人工干预,而不是直接扔掉。


一、消息是怎么"死"的

  1. 重试次数用尽

    消费失败,系统重投 3~5 次仍报错 → 认为"救不活"。

  2. TTL 过期

    消息在队列里待的时间超过设定的存活期(Time-To-Live)。

  3. 队列长度超限

    队列满,最早的消息被"挤"出来。

  4. 手动否定

    业务代码明确 basic.reject / basic.nackrequeue=false


二、死信后的流程(以 RabbitMQ 为例)

复制代码
          ┌------------ 正常业务队列 ------------┐
          │                                       │
          │  x-dead-letter-exchange = "dlx.exchange" │
          │  x-dead-letter-routing-key = "dlq.key"  │
          ▼                                       │
   消费失败/过期/超限 → 消息被 reject/nack → RabbitMQ 自动转发 → 死信队列(DLQ)
                                                             │
                                                             ▼
                                                    死信消费者(日志、告警、人工补单)

三、代码片段(RabbitMQ)

java 复制代码
// 1. 声明正常队列时绑定死信参数
Map<String, Object> args = new HashMap<>();
args.put("x-dead-letter-exchange", "dlx.exchange");
args.put("x-dead-letter-routing-key", "dlq.key");
args.put("x-message-ttl", 30000);          // 30 秒没消费就过期进 DLQ
channel.queueDeclare("business.queue", true, false, false, args);

// 2. 声明死信交换机和队列
channel.exchangeDeclare("dlx.exchange", "direct");
channel.queueDeclare("dead.queue", true, false, false, null);
channel.queueBind("dead.queue", "dlx.exchange", "dlq.key");

四、Kafka 里的 DLQ

Kafka 没有原生 DLQ,客户端自己实现
spring-kafkaSeekToCurrentErrorHandler

重试 N 次后把消息发到名为 xxx.DLT(Dead-Letter Topic)的 topic,效果一样。


五、死信队列用来干啥

  • 记录+报警:消息进 DLQ 立刻发钉钉/邮件。
  • 人工修复:运营后台拉取 DLQ 内容,补发或修正数据。
  • 二次重试:DLQ 消费者等系统空闲再把消息写回原队列。

一句话:
死信队列 = 正常队列的" ICU 病房" ,专门收容那些救不活 的消息,让它们死得明白、死得有价值,而不是无声无息地消失。

相关推荐
小坏讲微服务2 小时前
Spring Boot 4.0 整合 Kafka 企业级应用指南
java·spring boot·后端·kafka·linq
❀͜͡傀儡师2 小时前
docker一键部署kafka
docker·容器·kafka
豫狮恒2 小时前
OpenHarmony Flutter 分布式安全防护:跨设备身份认证与数据加密方案
分布式·安全·flutter·wpf·openharmony
Lisonseekpan3 小时前
Elasticsearch 入门指南
大数据·分布式·后端·elasticsearch·搜索引擎
西格电力科技3 小时前
光伏策略控制服务器如何成为电站智慧转型的中枢与关键一步?
运维·服务器·人工智能·分布式·能源
Jerry952706283 小时前
3.集群与分布式
分布式·架构·架构师·软考·高性能·高可用·架构设计师
beijingliushao3 小时前
101-Spark之Standalone环境安装步骤
大数据·分布式·spark
云 祁3 小时前
Spark SQL 深度优化实战指南:从原理到生产的完整方法论
大数据·数据库·分布式·sql·spark
500843 小时前
鸿蒙 Flutter 国密算法应用:SM4 加密存储与数据传输
分布式·算法·flutter·华为·wpf·开源鸿蒙