kafka监听

1、引入依赖

maven

复制代码
<dependencies>  
    <!-- Spring Boot Starter -->  
    <dependency>  
        <groupId>org.springframework.boot</groupId>  
        <artifactId>spring-boot-starter</artifactId>  
    </dependency>  
    <!-- Spring Kafka -->  
    <dependency>  
        <groupId>org.springframework.kafka</groupId>  
        <artifactId>spring-kafka</artifactId>  
    </dependency>  
    <!-- Spring Boot Configuration Processor (Optional, for @ConfigurationProperties) -->  
    <dependency>  
        <groupId>org.springframework.boot</groupId>  
        <artifactId>spring-boot-configuration-processor</artifactId>  
        <optional>true</optional>  
    </dependency>  
</dependencies>

gradle

复制代码
<dependencies>  
    <!-- Spring Boot Starter -->  
    <dependency>  
        <groupId>org.springframework.boot</groupId>  
        <artifactId>spring-boot-starter</artifactId>  
    </dependency>  
    <!-- Spring Kafka -->  
    <dependency>  
        <groupId>org.springframework.kafka</groupId>  
        <artifactId>spring-kafka</artifactId>  
    </dependency>  
    <!-- Spring Boot Configuration Processor (Optional, for @ConfigurationProperties) -->  
    <dependency>  
        <groupId>org.springframework.boot</groupId>  
        <artifactId>spring-boot-configuration-processor</artifactId>  
        <optional>true</optional>  
    </dependency>  
</dependencies>

2、配置文件

复制代码
spring:  
  kafka:  
    bootstrap-servers: localhost:9092 # Kafka服务器地址  
    consumer:  
      group-id: my-group # 消费者组ID  
      auto-offset-reset: earliest # 如果Kafka中没有初始偏移量或者当前偏移量不存在,则从最早的记录开始消费  
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer # 键的反序列化器  
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer # 值的反序列化器  
    # 其他配置...

3、代码

1、普通监听
java 复制代码
package com.example.kafkademo;  
  
import org.springframework.kafka.annotation.KafkaListener;  
import org.springframework.stereotype.Component;  
  
@Component  
public class KafkaMessageListener {  
  
    /**  
     * 监听Kafka消息  
     * @param message 接收到的消息  
     */  
    @KafkaListener(topics = "test-topic", groupId = "my-group")  
    public void listen(String message) {  
        System.out.println("Received Message: " + message);  
        // 在这里处理接收到的消息  
    }  
}
2、订阅发布模式

Spring框架中的发布订阅模式是一种常用的设计模式,它在事件驱动架构中扮演着重要角色。这种模式通过解耦事件的发送者(发布者)和接收者(订阅者)来提高系统的灵活性和可扩展性。下面我将详细介绍Spring中发布订阅模式的用处及其应用场景。
发布订阅模式的基本概念
~~~~~~~ 在发布订阅模式中,有三个主要组成部分:
~~~~~~~~~~~ 1. 发布者 (Publisher) :负责发送事件。
~~~~~~~~~~~ 2. 事件 (Event) :封装了一些数据或状态变化的通知。
~~~~~~~~~~~ 3. 订阅者 (Subscriber 或 Listener):负责接收并处理事件。

Spring中的实现

Spring通过ApplicationEventApplicationListener 接口以及ApplicationEventPublisher接口来支持发布订阅模式。

ApplicationEvent :这是所有事件的基类,事件对象通常会携带一些数据或状态信息。•ApplicationListener :这是事件监听器接口,定义了一个onApplicationEvent方法,用于处理事件。•ApplicationEventPublisher:这是一个接口,提供了publishEvent方法来发布事件。

发布订阅模式的用处

  1. 解耦:•发布者和订阅者之间是松耦合的。发布者不知道谁会监听它的事件,订阅者也不知道事件是由谁发布的。•这种解耦使得系统更容易维护和扩展。
  2. 灵活性:•可以动态地添加或删除订阅者,而不需要修改发布者或其他订阅者的代码。•支持多种类型的事件处理策略,如同步处理、异步处理等。
  3. 扩展性:•新增事件类型或订阅者变得非常简单,只需实现相应的事件类和监听器即可。•易于集成第三方系统,可以通过发布事件来通知外部系统。
  4. 事件驱动架构:•适用于构建高度动态和响应式的系统,例如实时通知、消息传递、状态变化跟踪等。
  5. 异步处理:•通过事件机制,可以轻松地实现异步处理,从而提高系统的响应速度和整体性能。
  6. 简化代码:•通过使用事件发布和订阅机制,可以将关注点分离,使得代码更加清晰和易于理解。典型应用场景
  7. 状态变化通知:•当系统中某个对象的状态发生变化时,可以发布事件来通知所有关心这一变化的组件。
  8. 异步消息处理:•发布事件以异步处理消息,例如发送电子邮件或短信通知。
  9. 分布式系统通信:•在微服务架构中,服务之间可以通过发布事件来相互通信。
  10. 日志记录和审计:•发布事件来记录重要的操作或状态变化,这对于审计和监控非常有用。
  11. 用户界面更新:•在Web应用中,当后端状态改变时,可以通过发布事件来更新前端界面。

监听器

java 复制代码
package com.dc.bill.syncentry.Listener;  
  
import ... // 省略了import语句  
  
@Component  
@Slf4j  
public class KafkaComponent {  
  
    @Resource  
    private ApplicationEventPublisher applicationEventPublisher; // 用于发布事件  
    @Resource  
    private KafkaUtils kafkaUtils; // Kafka工具类,用于数据源切换等  
  
    // 使用@KafkaListener注解监听Kafka消息  
    @KafkaListener(topics = "#{'${dc.topics.bill}'.split(',')}", groupId = "${spring.kafka.groupId}", autoStartup = "${spring.kafka.autoStartup}")  
    public void onMessage(ConsumerRecord<String, String> record, Acknowledgment acknowledgment, @Headers Map<String, Object> headers) throws Exception {  
        String sid = UUID.randomUUID().toString(); // 生成唯一标识  
        // 记录日志  
        LoggerUtils.writeInfo(log, String.format("消费消息-报关单ENTRY Thread [{%s}], partition[{%s}],  Kafka message:[{%s}] ", Thread.currentThread().getId(), record.partition(), record.value()), sid);  
        // 切换数据源  
        kafkaUtils.kafkaSwitchDataSource(headers, sid);  
        try {  
            // 创建事件对象  
            DcDataCollectBackEvent event = new DcDataCollectBackEvent(acknowledgment, record.value());  
            event.setSid(sid);  
            event.setBusinessType(BillEnum.BusinessType.SendEntry.getBusinessType());  
            // 发布事件  
            applicationEventPublisher.publishEvent(event);  
        } catch (Exception e) {  
            // 记录错误日志  
            LoggerUtils.writeError(log, e, sid + " HxChen-Kafka-Bill-Entry-Collect-Application-Event-pub-fail,消息:" + record.toString());  
        }  
        try {  
            // 确认消息已被消费  
            acknowledgment.acknowledge();  
        } catch (Exception e) {  
            // 记录错误日志  
            LoggerUtils.writeError(log, e, sid + " HxChen-Kafka-Bill-Entry-Collect-Acknowledgement-fail,消息:" + record.toString());  
        }  
    }  
}

事件

java 复制代码
package com.dc.bill.syncbill.Listener.event;  
  
import ... // 省略了import语句  
  
@Getter  
@Setter  
public class DcDataCollectBackEvent extends ApplicationEvent {  
    private String sid; // 唯一标识  
    private String businessType; // 业务类型  
    private String recordValue; // Kafka消息内容  
  
    public DcDataCollectBackEvent(Object source, String recordValue) {  
        super(source);  
        this.recordValue = recordValue;  
    }  
}

处理器

java 复制代码
package com.dc.bill.syncbill.Listener.listener;  
  
import ... // 省略了import语句  
  
@Slf4j  
@Component  
@Async // 异步执行  
public class DcDataCollectBackEventListener implements ApplicationListener<DcDataCollectBackEvent> {  
  
    @Resource  
    private DcDataCollectHandlerService handlerService; // 处理服务  
  
    @Override  
    public void onApplicationEvent(DcDataCollectBackEvent event) {  
        String sid = event.getSid();  
        try {  
            String businessType = event.getBusinessType();  
            String content = event.getRecordValue();  
            // 记录日志  
            LoggerUtils.writeInfo(log, "消息落地content并添加pushTask任务", sid);  
            // 处理事件  
            handlerService.handleCollectDataBackEvent(businessType, content, sid);  
        } catch (Exception ex) {  
            // 记录错误日志  
            LoggerUtils.writeError(log, ex, sid + ",入任务表失败HxChen-Kafka-Bill-Collect-Application-Event-consume-fail " + event.getRecordValue());  
        }  
    }  
}
相关推荐
掘金-我是哪吒2 小时前
分布式微服务系统架构第145集:Jeskson文档-微服务分布式系统架构
分布式·微服务·云原生·架构·系统架构
G探险者7 小时前
为什么 Zookeeper 越扩越慢,而 Nacos 却越扩越快?
分布式·后端
Pitayafruit9 小时前
跟着大厂学架构01:如何利用开源方案,复刻B站那套“永不崩溃”的评论系统?
spring boot·分布式·后端
bxlj_jcj11 小时前
Kafka环境搭建全攻略:从Docker到Java实战
java·docker·kafka
苏格拉没有底_coder14 小时前
引入 Kafka 消息队列解耦热点操作
分布式·kafka
顧棟15 小时前
Zookeeper 3.8.4 安装部署帮助手册
分布式·zookeeper
陈卓41017 小时前
MQ选型及RocketMQ架构总览
中间件·kafka·消息队列·rabbitmq·rocketmq
猕员桃18 小时前
《Elasticsearch 分布式搜索在聊天记录检索中的深度优化》
分布式·elasticsearch·wpf
沛沛老爹19 小时前
深入剖析 Celery:分布式异步任务处理的利器
分布式·python·微服务·celery·架构设计·worker节点
一眼万年0420 小时前
Kafka APIs 深度解析:请求处理架构与核心流程
微服务·kafka