RabbitMq

目录

一、为什么要用到RabbitMq?

二、RabbitMq有什么作用?

1.解耦

2.异步

三、RabbitMq的模型

1.helloword模型

2.Work模型

3.发布订阅模型

4.路由键模型

5.主题模型

四、RabbitMq跟SpringBoot的整合

1.导入依赖

2.yml配置

3.创建队列、创建交换机、将队列与交换机绑定并设置路由键

4.生产者发送消息

5.消费者消费消息

五、ACK机制

1.什么是消息确认机制?

2.手动开启ACK

2.消费者应答

六、消息的可靠性

1.消息可靠性讲的不能丢失,MQ是如何保证消息可靠性的?

1.1消息从生产者到交换机有可能会丢失。这里可以通过confirm机制来解决

1.2交换机到队列也有可能会丢失。这里可以通过return机制来解决

1.33、从队列到消费者也有可能会丢失。这里可以通过手动ACK解决。

2.confirm和return机制的实现

2.1yml配置

3.MQ是如何实现消息确认机制的?

4.消息补偿机制

5.服务端实现远程调用(RPC)

5.1通过java网络编程包

5.2RestTemplate

5.3ApacheHttpClient:通过工具类即可

七、消息的重复消费

1.消息被消费多次的后果

2.怎么解决消息被重复消费

4.幂等性解决方案

八、死信队列

1.什么是死信?

2.什么是非正常的消息

3.什么是死信队列

九、延迟队列


一、为什么要用到RabbitMq?

因为像我们之前的项目,代码之间的执行都是同步的,一个业务的处理必须等待上一个业务的完成,这样就比较耗费时间,比如我们的用户查询数据的时候,对于用户而言他只需要查寻数据这一个操作,对于我们服务端而言可能还需要做一些处理,像存入缓存、删除缓存,只有做完这些操作我们服务端才会把数据传给用户,但是这些是我们业务的处理,不应该让用户来承担这样的一个时间成本,并且用户等待数据的时间过长,给用户也会带来了很不好的体验感,同时模块之前的耦合性很高,一个模块宕机后,全部模块都不能用了。所以要中间件RabbitMQ

二、RabbitMq有什么作用?

1.解耦

就是rabbitMq有一个生产者模块负责发送消息到队列中,一个消费者模块负责从队列中拿到数据进行消费,模块与模块间分离,通过RabbitMq进行数据通信

2.异步

它可以不需要等待我们代码的全部执行,就可以用户所需要的数据将消息发送到队列中,然后由队列推给用户

三、RabbitMq的模型

1.helloword模型

一个生产者,一个队列,一个消费者

2.Work模型

一个生产者,一个队列,多个消费者

采用多个消费者是为了加快消息的消费,多个消费者之间采用轮训的方式。

3.发布订阅模型

一个生产者,一个交换机 ,多个队列,一个队列上对应一个消费者,消费者只有订阅才能收到消息,交换机通过广播给订阅的队列

4.路由键模型

路由键模型,跟发布订阅一样,只不过多了个路由键,进行一个条件的判断

5.主题模型

主体模型跟路由键类似,只不过路由键多了两个符号 *代表可以接单个字符,# 代表可以接多个字符

四、RabbitMq跟SpringBoot的整合

1.导入依赖
XML 复制代码
         <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-amqp</artifactId>
        </dependency>

2.yml配置

XML 复制代码
spring:
  rabbitmq:
    host: 192.168.107.123  #虚拟主机的ip地址
    port: 5672    #RabbitMq的端口号
    username: guest  #匿名用户
    password: guest
    virtual-host: / # 虚拟机主机,队列就是保存在虚拟主机中

3.创建队列、创建交换机、将队列与交换机绑定并设置路由键

java 复制代码
 // 交换机的类型是路由键
    @Bean
    public DirectExchange directExchange() {
        return new DirectExchange("direct-exchange");
    }

    @Bean
    public Queue directQueue1() {
        return new Queue("direct-queue1");
    }

    @Bean
    public Queue directQueue2() {
        return new Queue("direct-queue2");
    }

    // 绑定
    @Bean
    public Binding directQueue1Bind() {
        // 给direct-queue1绑定了两个队列
        BindingBuilder.DirectExchangeRoutingKeyConfigurer to = BindingBuilder.bind(directQueue1()).to(directExchange());
        
        // 绑定了两个路由键
        to.with("error");
        Binding warn = to.with("info");
        return warn;
    }

    @Bean
    public Binding directQueue2Bind() {
        return BindingBuilder.bind(directQueue1()).to(directExchange()).with("info");
    }

4.生产者发送消息

java 复制代码
 @Test
    void contextLoads() {
        rabbitTemplate.convertAndSend("direct-exchange", "error", "toString");
        System.out.println("生产者消息发送完成");
    }

5.消费者消费消息

java 复制代码
@Component
public class HelloQueueListener {

    @RabbitListener(queues = "direct-queue1")
    public void cosnuermMsg(String msg) {
        System.out.println("消费者拿到的数是:" + msg);
    }
}

五、ACK机制

ACK机制是消费端的一个消息确认机制

1.什么是消息确认机制?

MQServer把消息推送给消费者后,消费者开始消费,消费完成后需要把结果给MQServer应答一下,消费结果有两种情况:失败、成功

消费成功:应答ACK,MQServer手动ACK后就明白这个消息已经被成功的消费了,可以从队列中删除了。

消费失败:应答NACK。MQServer收到NACK后知道了消费者无法消费这个消息,发送给其他的消费者进行消费。如果其他的消费者也是无法消费,此时需要这类消息全部的收集起来入库,通知相关人员来检查。
消费者默认自动应答,不出异常自动应答,出了异常应答NACK,并且把这个消息压入到队列

ready:待分配(消费者)的消息的数量。

unackded:待应答的消息数量。

total:总消息的数量。
当出现异常没有处理时候,那么被认为应答nACK,消息回到队列的待应答状态,关掉消费者,则进入待分配状态

客户端先创建连接对象,有了连接对象才能创建信道进行数据的传输

channel断开后把待应答的消息,全部变为待分配。

mqServer是支持持久化的,重启后数据还有,down删除就没有了

2.手动开启ACK

1.ylm配置文件

XML 复制代码
spring:
  rabbitmq:
    host: 192.168.127.102
    port: 5672
    username: guest
    password: guest
    virtual-host: /
    listener:
      simple:
        acknowledge-mode: manual # 手动ACK
2.消费者应答
java 复制代码
@RabbitListener(queues = "hello-queue")
    public void cosnuermMsg(String msg, Channel channel, Message message) {
        System.out.println("消费者拿到的数是:" + msg);

        // 每个消息的标识
        long deliveryTag = message.getMessageProperties().getDeliveryTag();
        try {
            // 开始消费消息
            Boolean flag = customerData(msg);
            if (flag) {
                // 确定消息消费成功,应答ACK
                // 第一个参数:消息的唯一标识
                // 第二个参数:是否批量应答,一般都是false
                channel.basicAck(deliveryTag, false);
                System.out.println("消息成功,应答ACK");
                return;
            }
            System.out.println("消息过程中没有出现异常,但是消息没有消费成功,应答NACK");
        } catch (Exception e) {
            e.printStackTrace();
            System.out.println("消费过程中出现了异常,应答NACK");
        }

        // 消息消费失败,应答NACK
        // 第三个参数是:是否压入队列,如果设置为false该消息就丢弃了
        try {
            channel.basicNack(deliveryTag, false, true);
        } catch (IOException e) {
            e.printStackTrace();
        }
    }

    // 完成消息的消费
    private Boolean customerData(String msg) {
        Integer i = Integer.parseInt(msg);
        if (i == 0) { // 没有插入成功,但是也没有出现异常
            return false;
        }
        return true;
    }

六、消息的可靠性

1.消息可靠性讲的不能丢失,MQ是如何保证消息可靠性的?

1.1消息从生产者到交换机有可能会丢失。这里可以通过confirm机制来解决

confirm机制是RabbitMQ自己提供的一个机制,用来确认消息是否到了交换机了。

1.2交换机到队列也有可能会丢失。这里可以通过return机制来解决

reutrn机制是RabbitMQ自己提供的一个机制,用来确认消息是否到了队列了。

1.33、从队列到消费者也有可能会丢失。这里可以通过手动ACK解决。

手动ACK后就明白这个消息已经被成功的消费了,可以从队列中删除

2.confirm和return机制的实现

2.1yml配置
XML 复制代码
spring:
  rabbitmq:
    host: 192.168.127.102
    port: 5672
    username: guest
    password: guest
    virtual-host: /
    publisher-returns: true #开启return
    publisher-confirm-type: simple # 开启confirm
java 复制代码
/**
 * confirm机制和return机制
 */
@Component
public class MsgConfirm implements RabbitTemplate.ConfirmCallback, RabbitTemplate.ReturnCallback {

    @Autowired
    private RabbitTemplate rabbitTemplate;

    @PostConstruct
    public void init() {
        //这里要对mq的return和confirm进行覆盖
        rabbitTemplate.setReturnCallback(this);
        rabbitTemplate.setConfirmCallback(this);
    }

    // confirm机制确认消息是否到了交换机
    @Override
    public void confirm(CorrelationData correlationData, boolean ack, String cause) {
        if (ack) {
            System.out.println("消息已经到了交换机");
        } else {
            System.out.println("消息没到了交换机");
        }
    }

    // 确认消息是否到了队列
    @Override
    public void returnedMessage(Message message, int replyCode, String replyText, String exchange, String routingKey) {
        System.out.println("消息没有到队列," + replyText + "," + exchange + "," + routingKey);
    }

3.MQ是如何实现消息确认机制的?

生产者发送消息的时候除了交换机,数据,路由键把回调函数也发送过去了,因为消息是否到了交换机时MQServer确定的,如果到了就调用ACK

4.消息补偿机制

但是这只是通知消息是否正常到达,并没有对消息没有达到的情况进行一个处理,所以我们要进行消息补偿,生产者对未发送成功的消息进行一个消息补偿,特别是对业务很重要的数据必须补偿,无关紧要的倒可以不必因为消息补偿需要成本
也就是mq发送数据出现故障的时候,就可以考虑别的方式发送数据了,这就是消息补偿,如:RPC远程调用直接由生产者发送给消费者,不通过mq

5.服务端实现远程调用(RPC)

5.1通过java网络编程包
5.2RestTemplate
java 复制代码
  @Test
    void contextLoads2() throws Exception {

        // 这个类可以发送一个请求过去
        RestTemplate restTemplate = new RestTemplate();

        String info = restTemplate.getForObject("http://localhost:8080/send?msg=HTTP", String.class);

        System.out.println("远程调用的返回的结果:"+info);
    }
5.3ApacheHttpClient:通过工具类即可

七、消息的重复消费

消息的重复消费指的是一个消息被同一个消费者消费了多次。

1.消息被消费多次的后果

消费者拿到消息后干的事情是扣款或者是发送短信等待。

正常来说消费一次就够了,重复消费后就发现扣款了多次。

2.怎么解决消息被重复消费

控制幂等性 幂等性:多次相同的操作不会对数据产生影响

接口的幂等性 就是多次相同的操作不会对数据再次改变
消息的幂等性 就是这个消息的重复消费不会对数据产生影响

3.为什么消息会被重复消费

消费者拿到数据开始消费,并且也消费成功了,在做ACK应答之前网络出现了闪断,消费者和MQServer断开了连接。MQServer中的待应答就会变成待分配,此时消息已经成功消费了,因为是闪断,所以又再次的连接成功,MQServer在再次的把消息推送给了消费者,消费者再次拿到数据再次进行消费,这里就出现了重复的消费。

这个地方只需要把消费者中调用消费数据的方法控制幂等性就可以了

4.幂等性解决方案

Token机制:关于解决表单的重复提交就是服务端生成一个token带给表单,表单中隐藏这个token,多次提交携带token过去,第一次token有效进行操作,然后把token设为失效了,然后后面的提交携带的token就是失效的了,就不会操作了

CAS保证接口幂等性

乐观锁实现幂等性

防重表

缓存队列

select+insert

八、死信队列

1.什么是死信?

非正常的消息就是死信

2.什么是非正常的消息

被Nack的,被拒绝的,超过队列长度被挤出去的信息

3.什么是死信队列

保存死信的消息的队列就是死信队列
被nack的消息可以压入队列,然后在队列中配置了死信交换机和路由键

的信息,转到死信交换机,由死信交换机发给死信队列,然后交给另一个消费者处理
一般无法处理的消息都是死信,会把这些死信消息全部的转到同一个队列来做特殊的处理,这个队列就是死信队列。

九、延迟队列

有些场景不希望马上消费,是需要延时一段时间后再去消费。比如:10分钟后,半个小时后干点事情。

比如:订单超过关闭,验证码超时失效,这些都是延时任务,就可以通过延迟队列完成

相关推荐
Data跳动1 小时前
Spark内存都消耗在哪里了?
大数据·分布式·spark
Java程序之猿3 小时前
微服务分布式(一、项目初始化)
分布式·微服务·架构
来一杯龙舌兰3 小时前
【RabbitMQ】RabbitMQ保证消息不丢失的N种策略的思想总结
分布式·rabbitmq·ruby·持久化·ack·消息确认
节点。csn5 小时前
Hadoop yarn安装
大数据·hadoop·分布式
NiNg_1_2346 小时前
基于Hadoop的数据清洗
大数据·hadoop·分布式
隔着天花板看星星7 小时前
Spark-Streaming集成Kafka
大数据·分布式·中间件·spark·kafka
技术路上的苦行僧12 小时前
分布式专题(8)之MongoDB存储原理&多文档事务详解
数据库·分布式·mongodb
龙哥·三年风水12 小时前
workman服务端开发模式-应用开发-后端api推送修改二
分布式·gateway·php
小小工匠13 小时前
分布式协同 - 分布式事务_2PC & 3PC解决方案
分布式·分布式事务·2pc·3pc
Allen Bright13 小时前
Spring Boot 整合 RabbitMQ:从入门到实践
spring boot·rabbitmq·java-rabbitmq