1、引入依赖
maven
<dependencies>
<!-- Spring Boot Starter -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter</artifactId>
</dependency>
<!-- Spring Kafka -->
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
</dependency>
<!-- Spring Boot Configuration Processor (Optional, for @ConfigurationProperties) -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-configuration-processor</artifactId>
<optional>true</optional>
</dependency>
</dependencies>
gradle
<dependencies>
<!-- Spring Boot Starter -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter</artifactId>
</dependency>
<!-- Spring Kafka -->
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
</dependency>
<!-- Spring Boot Configuration Processor (Optional, for @ConfigurationProperties) -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-configuration-processor</artifactId>
<optional>true</optional>
</dependency>
</dependencies>
2、配置文件
spring:
kafka:
bootstrap-servers: localhost:9092 # Kafka服务器地址
consumer:
group-id: my-group # 消费者组ID
auto-offset-reset: earliest # 如果Kafka中没有初始偏移量或者当前偏移量不存在,则从最早的记录开始消费
key-deserializer: org.apache.kafka.common.serialization.StringDeserializer # 键的反序列化器
value-deserializer: org.apache.kafka.common.serialization.StringDeserializer # 值的反序列化器
# 其他配置...
3、代码
1、普通监听
java
package com.example.kafkademo;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;
@Component
public class KafkaMessageListener {
/**
* 监听Kafka消息
* @param message 接收到的消息
*/
@KafkaListener(topics = "test-topic", groupId = "my-group")
public void listen(String message) {
System.out.println("Received Message: " + message);
// 在这里处理接收到的消息
}
}
2、订阅发布模式
Spring框架中的发布订阅模式是一种常用的设计模式,它在事件驱动架构中扮演着重要角色。这种模式通过解耦事件的发送者(发布者)和接收者(订阅者)来提高系统的灵活性和可扩展性。下面我将详细介绍Spring中发布订阅模式的用处及其应用场景。
发布订阅模式的基本概念
~~~~~~~ 在发布订阅模式中,有三个主要组成部分:
~~~~~~~~~~~ 1. 发布者 (Publisher) :负责发送事件。
~~~~~~~~~~~ 2. 事件 (Event) :封装了一些数据或状态变化的通知。
~~~~~~~~~~~ 3. 订阅者 (Subscriber 或 Listener):负责接收并处理事件。
Spring中的实现
Spring通过ApplicationEvent 和ApplicationListener 接口以及ApplicationEventPublisher接口来支持发布订阅模式。
•ApplicationEvent :这是所有事件的基类,事件对象通常会携带一些数据或状态信息。•ApplicationListener :这是事件监听器接口,定义了一个onApplicationEvent方法,用于处理事件。•ApplicationEventPublisher:这是一个接口,提供了publishEvent方法来发布事件。
发布订阅模式的用处
- 解耦:•发布者和订阅者之间是松耦合的。发布者不知道谁会监听它的事件,订阅者也不知道事件是由谁发布的。•这种解耦使得系统更容易维护和扩展。
- 灵活性:•可以动态地添加或删除订阅者,而不需要修改发布者或其他订阅者的代码。•支持多种类型的事件处理策略,如同步处理、异步处理等。
- 扩展性:•新增事件类型或订阅者变得非常简单,只需实现相应的事件类和监听器即可。•易于集成第三方系统,可以通过发布事件来通知外部系统。
- 事件驱动架构:•适用于构建高度动态和响应式的系统,例如实时通知、消息传递、状态变化跟踪等。
- 异步处理:•通过事件机制,可以轻松地实现异步处理,从而提高系统的响应速度和整体性能。
- 简化代码:•通过使用事件发布和订阅机制,可以将关注点分离,使得代码更加清晰和易于理解。典型应用场景
- 状态变化通知:•当系统中某个对象的状态发生变化时,可以发布事件来通知所有关心这一变化的组件。
- 异步消息处理:•发布事件以异步处理消息,例如发送电子邮件或短信通知。
- 分布式系统通信:•在微服务架构中,服务之间可以通过发布事件来相互通信。
- 日志记录和审计:•发布事件来记录重要的操作或状态变化,这对于审计和监控非常有用。
- 用户界面更新:•在Web应用中,当后端状态改变时,可以通过发布事件来更新前端界面。
监听器
java
package com.dc.bill.syncentry.Listener;
import ... // 省略了import语句
@Component
@Slf4j
public class KafkaComponent {
@Resource
private ApplicationEventPublisher applicationEventPublisher; // 用于发布事件
@Resource
private KafkaUtils kafkaUtils; // Kafka工具类,用于数据源切换等
// 使用@KafkaListener注解监听Kafka消息
@KafkaListener(topics = "#{'${dc.topics.bill}'.split(',')}", groupId = "${spring.kafka.groupId}", autoStartup = "${spring.kafka.autoStartup}")
public void onMessage(ConsumerRecord<String, String> record, Acknowledgment acknowledgment, @Headers Map<String, Object> headers) throws Exception {
String sid = UUID.randomUUID().toString(); // 生成唯一标识
// 记录日志
LoggerUtils.writeInfo(log, String.format("消费消息-报关单ENTRY Thread [{%s}], partition[{%s}], Kafka message:[{%s}] ", Thread.currentThread().getId(), record.partition(), record.value()), sid);
// 切换数据源
kafkaUtils.kafkaSwitchDataSource(headers, sid);
try {
// 创建事件对象
DcDataCollectBackEvent event = new DcDataCollectBackEvent(acknowledgment, record.value());
event.setSid(sid);
event.setBusinessType(BillEnum.BusinessType.SendEntry.getBusinessType());
// 发布事件
applicationEventPublisher.publishEvent(event);
} catch (Exception e) {
// 记录错误日志
LoggerUtils.writeError(log, e, sid + " HxChen-Kafka-Bill-Entry-Collect-Application-Event-pub-fail,消息:" + record.toString());
}
try {
// 确认消息已被消费
acknowledgment.acknowledge();
} catch (Exception e) {
// 记录错误日志
LoggerUtils.writeError(log, e, sid + " HxChen-Kafka-Bill-Entry-Collect-Acknowledgement-fail,消息:" + record.toString());
}
}
}
事件
java
package com.dc.bill.syncbill.Listener.event;
import ... // 省略了import语句
@Getter
@Setter
public class DcDataCollectBackEvent extends ApplicationEvent {
private String sid; // 唯一标识
private String businessType; // 业务类型
private String recordValue; // Kafka消息内容
public DcDataCollectBackEvent(Object source, String recordValue) {
super(source);
this.recordValue = recordValue;
}
}
处理器
java
package com.dc.bill.syncbill.Listener.listener;
import ... // 省略了import语句
@Slf4j
@Component
@Async // 异步执行
public class DcDataCollectBackEventListener implements ApplicationListener<DcDataCollectBackEvent> {
@Resource
private DcDataCollectHandlerService handlerService; // 处理服务
@Override
public void onApplicationEvent(DcDataCollectBackEvent event) {
String sid = event.getSid();
try {
String businessType = event.getBusinessType();
String content = event.getRecordValue();
// 记录日志
LoggerUtils.writeInfo(log, "消息落地content并添加pushTask任务", sid);
// 处理事件
handlerService.handleCollectDataBackEvent(businessType, content, sid);
} catch (Exception ex) {
// 记录错误日志
LoggerUtils.writeError(log, ex, sid + ",入任务表失败HxChen-Kafka-Bill-Collect-Application-Event-consume-fail " + event.getRecordValue());
}
}
}