RabbitMQ 高级特性——持久化

文章目录

前言

前面我们学习了 RabbitMQ 的高级特性------消息确认,消息确认可以保证消息传输过程的稳定性,但是在保证了消息传输过程的稳定性之后,还存在着其他的问题,我们都知道消息都存放在 RabbtiMQ Broker 中的队列中的,如果我们的 RabbitMQ Server 发生了重启或者宕机了,那么我们内存中的队列也就丢失了,相信大家也应该知道如何解决这种问题,对了,那就是持久化。

持久化

RabbitMQ 的持久化分为三个部分:交换机的持久化、队列的持久化和消息的持久化。

交换机持久化

交换机的持久化是我们在声明交换机的时候,将 durable 的参数设置为 true 实现的。也就是将交换机的内部属性在服务器的内部保存,当 MQ 服务器发生重启之后,不需要去重新建立交换机,交换机会根据服务器中保存的交换机的属性来自动创建。

如果交换机不设置持久化,那么当 RabbitMQ 服务重启之后,交换机的元数据就会丢失,那么要想再使用这个交换机就只能重新创建这个交换机。

对于我们之前设置的持久化的交换机,如果我们重启 RabbitMQ Server,看一下这些交换机是否还会存在:

重启 RabbitMQ Server:systemctl restart rabbitmq-server.service

可以发现这些设置了持久化的交换机在 RabbitMQ Server 重启之后还是存在的,也不能说是存在,只是重启的时候自动创建了,那么我们再来看看未被设置为持久化的队列在 RabbitMQ Server 重启之后是否会自动创建:

java 复制代码
@Bean("noPermanentExchange")
public TopicExchange noPermanentExchange() {
    return ExchangeBuilder.topicExchange(Constants.NO_PERMANENT_EXCHANGE).durable(false).build();
}

启动一下程序,创建这个交换机:

然后重启一下 RabbitMQ Server:

重启服务之后,我们创建的非持久化的交换机就不会自动创建了。

队列持久化

队列的持久化也是我们在声明队列的时候设置 durable 的参数来实现的。如果队列不设置持久化,那么当我们的 RabbitMQ Server 重启的时候,这些未设置持久化的队列就会丢失,那么队列中的消息也就会丢失(不管队列里面的消失是否设置了持久化)。

队列的持久化能保证队列的元数据不会因异常情况而丢失,但是并不能保证内部所存储的消息不会丢失,要确保消息不会丢失,还需要设置消息为持久化。

QueueBuilder.durable(Constants.ACK_QUEUE).build(); 创建持久化队列;
QueueBuilder.nonDurable(Constants.ACK_QUEUE).build(); 创建非持久化队列,durable 参数默认是 true,也就是队列默认是持久化的队列。

消息持久化

实现消息持久化,需要把消息的投递模式(MessageProperties 中的 deliveryMode)设置为2,也就是 MessageDeliveryMode.PERSISTENT。

java 复制代码
public enum MessageDeliveryMode {
	NON_PERSISTENT,//非持久化
	PERSISTENT;//持久化
}

消息存储在队列中,既然存储在队列中,那么要想真正实现消息的持久化,就也需要保证队列的持久化。如果队列不持久化,消息持久化,那么当 RabbitMQ 服务重启的时候,队列就会消息,更不用说里面的消息了,当队列持久化,但是消息不持久化的话,那么服务重启,队列存在但是队列中的消息不存在,也就是说只有队列和消息都设置为持久化才能真正实现消息的持久化。

java 复制代码
public static final String PERMANENT_EXCHANGE = "permanent.exchange";
public static final String PERMANENT_QUEUE = "permanent.queue";

声明队列、交换机以及队列和交换机的绑定关系:

java 复制代码
@Bean("permanentQueue")
public Queue permanentQueue() {
    return QueueBuilder.durable(Constants.PERMANENT_QUEUE).build();
}

@Bean("permanentExchange")
public TopicExchange permanentExchange() {
    return ExchangeBuilder.topicExchange(Constants.PERMANENT_EXCHANGE).build();
}

@Bean("permanentBinding")
public Binding permanentBinding(@Qualifier("permanentExchange") Exchange exchange, @Qualifier("permanentQueue") Queue queue) {
    return BindingBuilder.bind(queue).to(exchange).with("permanent").noargs();
}

注意:当进行队列和交换机的绑定的时候,如果参数中交换机的类型是 Exchange 的话,创建的 Binding 实例中就还需要加上 noargs 方法。

生产者代码:

java 复制代码
@RequestMapping("/permanent")
public String permanent() {
    String msg = "rabbitmq permanent";
    Message message = new Message(msg.getBytes(),new MessageProperties());
    message.getMessageProperties().setDeliveryMode(MessageDeliveryMode.PERSISTENT);
    rabbitTemplate.convertAndSend(Constants.PERMANENT_EXCHANGE,"permanent",message);
    return "消息发送成功";
}

我们先不实现消费者,这里只是为了看队列中的消息是否实现了持久化。

我们先向队列中生产几条消息,然后再重启服务,看当队列和消息都设置为持久化的时候是否能真正实现消息的持久化:

然后重启 RabbitMQ 服务:

重启之后发现,队列中的消息还是存在的,那么如果我们将队列设置为非持久化,消息设置为持久化呢?

因为 RabibtMQ 交换机和队列只要创建了那么就不能修改它的属性了,所以我们这里先将之前创建的队列删除重新创建:

java 复制代码
@Bean("permanentQueue")
public Queue permanentQueue() {
    return QueueBuilder.nonDurable(Constants.PERMANENT_QUEUE).build();
}

重启服务:

注意当我们重启 RabbitMQ 的时候,需要将我们的程序也关闭掉,不然当我们重启 RabbitMQ 服务的时候,程序就会自动连接上 RabbitMQ 然后自动创建交换机和队列:

我们的程序首先会报错:

然后服务重启成功之后,就会自动连接 RabbitMQ 并且创建交换机和队列:


所以我们生产完成几条消息之后,关闭程序然后重启服务:

重启服务之后:

可以看到我们的队列没有实现持久化,整个队列都没了,更别说队列里面的消息了,所以只有队列和消息都实现持久化的时候才能真正实现消息的持久化。

实现消息的持久化的时候,不能将全部的消息都持久化,因为写硬盘的速度是非常慢的,我们应该按需按情况实现部分消息的持久化。

将交换机、队列和消息实现持久化就能百分百保证数据不丢失了吗?答案是否定的。

  1. 从消费者来说,如果在订阅消费队列时将 autoAck 设置为 true,那么当消费者接收到相关的消息之后,还没来得及处理就宕机了,这样也算数据丢失,这种情况很好解决,就是将 autoAck 设置为 false,手动确认就好了
  2. 在持久化的消息正确存入 RabbitMQ 之后,还需要一段时间(虽然很短,但是也不能忽视)才能存入磁盘中,RabbitMQ 并不会为每条消息都进行同步存盘(调用内核的 fsync 方法)的处理,可能仅仅保存到操作系统的缓存之中,而不是物理磁盘上,如果在这个时间段内 RabbitMQ 发生了宕机、重启等异常,那么消息还没来得及落盘,那么这些消息就会丢失

那么第二个问题如何解决呢?

  1. 引入RabbitMQ的仲裁队列(后面再讲),如果主节点(master)在此特殊时间内挂掉,可以自动切换到从节点(slave),这样有效地保证了高可用性。除非整个集群都挂掉(此方法也不能保证100%可靠,但是配置了仲裁队列要比没有配置仲裁队列的可靠性要高很多。实际生产环境中的关键业务队列一般都会设置仲裁队列)。
  2. 还可以在发送端引入事务机制或者发送方确认机制来确保消息已经正确地发送并存储至RabbitMQ中。详细参考下一个章节内容介绍------"发送方确认"。
相关推荐
运维&陈同学1 小时前
【zookeeper01】消息队列与微服务之zookeeper工作原理
运维·分布式·微服务·zookeeper·云原生·架构·消息队列
时差9531 小时前
Flink Standalone集群模式安装部署
大数据·分布式·flink·部署
菠萝咕噜肉i2 小时前
超详细:Redis分布式锁
数据库·redis·分布式·缓存·分布式锁
只因在人海中多看了你一眼5 小时前
分布式缓存 + 数据存储 + 消息队列知识体系
分布式·缓存
zhixingheyi_tian7 小时前
Spark 之 Aggregate
大数据·分布式·spark
求积分不加C9 小时前
-bash: ./kafka-topics.sh: No such file or directory--解决方案
分布式·kafka
nathan05299 小时前
javaer快速上手kafka
分布式·kafka
谭震鸿12 小时前
Zookeeper集群搭建Centos环境下
分布式·zookeeper·centos
天冬忘忧17 小时前
Kafka 工作流程解析:从 Broker 工作原理、节点的服役、退役、副本的生成到数据存储与读写优化
大数据·分布式·kafka
IT枫斗者1 天前
如何解决Java EasyExcel 导出报内存溢出
java·服务器·开发语言·网络·分布式·物联网