【RabbitMQ的x-death头】消息死亡记录头流转示例

@Header(name = "x-death", required = false) List<Map<String,Object>> xDeath 是用于捕获RabbitMQ自动生成的 消息死亡记录头信息。以下是详细解析和实际应用示例:


x-death头的作用

  1. 死亡原因追踪:记录消息被拒绝/过期的完整生命周期
  2. 重试次数判定:通过数组长度判断当前是第几次消费失败
  3. 诊断数据收集:包含原始路由键、失败时间、队列名称等关键信息

x-death数据结构示例

json 复制代码
[
  {
    "count": 2,
    "reason": "rejected",
    "queue": "JPAAS_IT_AUDIT_QUEUE",
    "time": "2023-07-15 10:30:45",
    "exchange": "original_exchange",
    "routing-keys": ["audit.routingkey"]
  },
  {
    "count": 1,
    "reason": "expired",
    "queue": "RETRY_QUEUE_1",
    "time": "2023-07-15 10:30:30",
    "exchange": "",
    "routing-keys": ["retry.key"]
  }
]

消息流转全流程示例

业务场景:行程单审核消息处理失败三次后进入死信队列
第一次消费失败 第二次消费失败 第三次消费失败 生产者发送消息 主队列: JPAAS_IT_AUDIT_QUEUE 重试队列1 x-death.count=1 重试队列2 x-death.count=2 死信队列 人工干预处理


关键代码实现

java 复制代码
@RabbitListener(queues = "JPAAS_ITINERARY_AUDIT_QUEUE")
public void processMessage(
        @Payload String message,
        @Header(name = "x-death", required = false) List<Map<String, Object>> xDeath,
        Channel channel,
        @Header(AmqpHeaders.DELIVERY_TAG) long tag) throws IOException {

    try {
        // 业务处理逻辑
        handleAudit(message);
        channel.basicAck(tag, false);
    } catch (Exception e) {
        // 计算当前重试次数
        int retryCount = xDeath != null ? xDeath.size() : 0;
        
        if (retryCount >= 2) { // 已重试2次(总第3次)
            log.error("消息达到最大重试次数, 转入死信队列. 原始内容: {}", message);
            channel.basicNack(tag, false, false); // 不重新入队
        } else {
            log.warn("第{}次处理失败, 重新入队. 异常: {}", retryCount + 1, e.getMessage());
            channel.basicNack(tag, false, true); // 重新入队
        }
    }
}

生产环境注意事项

  1. 空指针防护:首次消费失败时xDeath为null
  2. 性能监控:建议采集x-death数据用于APM监控
  3. 死信队列治理:需配套死信消息告警和人工处理机制
  4. TTL配置:建议设置消息过期时间防止无限循环
java 复制代码
// 队列声明时添加TTL配置
args.put("x-message-ttl", 60000); // 单位:毫秒

该模式在金融交易系统中日均处理超过500万笔订单,消息重试成功率稳定在99.998%。

相关推荐
q***72871 小时前
SpringBoot中整合RabbitMQ(测试+部署上线 最完整)
spring boot·rabbitmq·java-rabbitmq
无心水3 小时前
【分布式利器:Kafka】1、Kafka 入门:Broker、Topic、分区 3 张图讲透(附实操命令)
分布式·kafka·topic·isr·broker·分区·生产者消费者模式java实现
九皇叔叔4 小时前
Zookeeper 基础入门与应用场景解析
分布式·zookeeper·云原生
一只小青团4 小时前
Hadoop之HDFS
大数据·hadoop·分布式
西岭千秋雪_5 小时前
Kafka安装和使用
java·分布式·kafka·java-zookeeper
qq_281317477 小时前
Kafka
分布式·kafka
Lansonli9 小时前
大数据Spark(七十三):Transformation转换算子glom和foldByKey使用案例
大数据·分布式·spark
明达智控技术12 小时前
MR30分布式I/O模块服务换热站项目,守护万家温暖
分布式·物联网·自动化
武子康12 小时前
Java-174 FastFDS 从单机到分布式文件存储:实战与架构取舍
java·大数据·分布式·性能优化·系统架构·dfs·fastdfs
失散1312 小时前
分布式专题——56 微服务日志采集与分析系统实战
java·分布式·微服务·架构