RabbitMQ的TLL

过期时间

RabbitMQ支持两种过期时间

  1. 队列级别:通过队列的属性设置,队列中所有消息都有相同的过期时间,一旦消息过期,就会从队列中抹去。设置队列级别的 TTL 主要目的是让消息在被消费之前自动过期和删除,从而避免无用消息长期占用资源。
  2. 消息级别:对消息本身进行单独设置,每条消息的 TTL 可以不同,即使消息过期,也不会马上从队列中抹去,因为每条消息是否过期是在即将投递到消费者之前判定的。

如果两种方法一起使用,则消息的 TTL 以两者之间较小的那个数值为准。消息在队列中的生存时

一旦超过设置 TTL 值时,就会变成"死信" (Dead Message) ,消费者将无法再收到该消息。

消息过期处理策略

  1. 队列级别:队列中己过期的消息肯定在队列头部, RabbitMQ 只要定期从队头开始扫描是否有过期的消息即可。
  2. 消息级别:每条消息的过期时间不同,如果要删除所有过期消息势必要扫描整个队列,所以不如等到此消息即将被消费时再判定是否过期 如果过期再进行删除即可。

死信队列

当消息在一个队列中变成死信 (dea message) 之后,它能被重新被发送到另一个交换器中,这个

交换器就是 DLX ,绑定 DLX 的队列就称之为死信队列。

消息变成死信 般是由于以下几种情况:

  1. 消息被拒绝并且设置 requeue 参数为 false
  2. 消息过期
  3. 队列长度达到最大长度
相关推荐
Data跳动7 小时前
Spark内存都消耗在哪里了?
大数据·分布式·spark
Java程序之猿9 小时前
微服务分布式(一、项目初始化)
分布式·微服务·架构
来一杯龙舌兰10 小时前
【RabbitMQ】RabbitMQ保证消息不丢失的N种策略的思想总结
分布式·rabbitmq·ruby·持久化·ack·消息确认
节点。csn11 小时前
Hadoop yarn安装
大数据·hadoop·分布式
NiNg_1_23412 小时前
基于Hadoop的数据清洗
大数据·hadoop·分布式
隔着天花板看星星14 小时前
Spark-Streaming集成Kafka
大数据·分布式·中间件·spark·kafka
技术路上的苦行僧18 小时前
分布式专题(8)之MongoDB存储原理&多文档事务详解
数据库·分布式·mongodb
龙哥·三年风水18 小时前
workman服务端开发模式-应用开发-后端api推送修改二
分布式·gateway·php
小小工匠19 小时前
分布式协同 - 分布式事务_2PC & 3PC解决方案
分布式·分布式事务·2pc·3pc
Allen Bright19 小时前
Spring Boot 整合 RabbitMQ:从入门到实践
spring boot·rabbitmq·java-rabbitmq