SpringBoot集成kafka

SpringBoot集成kafka

集成kafka

pom引入

xml 复制代码
<dependency>
    <groupId>org.springframework.kafka</groupId>
    <artifactId>spring-kafka</artifactId>
    <version>2.8.11</version>
</dependency>

配置kafka

yaml 复制代码
spring:
  kafka:
    bootstrap-servers: 127.0.0.1:9092
    producer:
      # 发生错误后,消息重发的次数。
      retries: 0
      #当有多个消息需要被发送到同一个分区时,生产者会把它们放在同一个批次里。该参数指定了一个批次可以使用的内存大小,按照字节数计算。
      batch-size: 16384
      # 设置生产者内存缓冲区的大小。
      buffer-memory: 33554432
      # 键的序列化方式
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      # 值的序列化方式
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
      # acks=0 : 生产者在成功写入消息之前不会等待任何来自服务器的响应。
      # acks=1 : 只要集群的首领节点收到消息,生产者就会收到一个来自服务器成功响应。
      # acks=all :只有当所有参与复制的节点全部收到消息时,生产者才会收到一个来自服务器的成功响应。
      acks: 1
    consumer:
      # 自动提交的时间间隔 在spring boot 2.X 版本中这里采用的是值的类型为Duration 需要符合特定的格式,如1S,1M,2H,5D
      auto-commit-interval: 1S
      # 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理:
      # latest(默认值)在偏移量无效的情况下,消费者将从最新的记录开始读取数据(在消费者启动之后生成的记录)
      # earliest :在偏移量无效的情况下,消费者将从起始位置读取分区的记录
      auto-offset-reset: latest
      # 是否自动提交偏移量,默认值是true,为了避免出现重复数据和数据丢失,可以把它设置为false,然后手动提交偏移量
      enable-auto-commit: false
      # 键的反序列化方式
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      # 值的反序列化方式
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      # 设置默认消费者分组id
      group-id: dev
    listener:
      # 在侦听器容器中运行的线程数。
      concurrency: 5
      #listner负责ack,每调用一次,就立即commit
      ack-mode: manual_immediate
      missing-topics-fatal: false

kafka生产者示例

java 复制代码
@Component
@Slf4j
public class KafkaProducer {

    @Autowired
    private KafkaTemplate<String, Object> kafkaTemplate;

    // 发送kafka消息
    public void send(String topic, Object data) {
        if (StringUtils.isEmpty(topic)) {
            log.error("Kafka topic不能为空");
            throw new IllegalArgumentException("Kafka topic不能为空");
        } else if (ObjectUtil.isEmpty(data)) {
            log.error("Kafka消息不能为空");
            throw new IllegalArgumentException("Kafka消息不能为空");
        } else {
            // 将数据转换为JSON字符串
            String jsonStr = JSONUtil.toJsonStr(data);
            // 向kafka发送消息
            ListenableFuture<SendResult<String, Object>> future = kafkaTemplate.send(topic, jsonStr);
            future.addCallback(new ListenableFutureCallback<SendResult<String, Object>>() {
                @Override
                public void onFailure(Throwable throwable) {
                    //发送失败的处理
                    log.info(topic + " - 生产者 发送消息失败:" + throwable.getMessage());
                }
                @Override
                public void onSuccess(SendResult<String, Object> stringObjectSendResult) {
                    //成功的处理
                    log.info(topic + " - 生产者 发送消息成功:" + stringObjectSendResult.toString());
                }
            });
        }

    }
}

kafka消费者示例

java 复制代码
@Component
@Slf4j
public class KafkaConsumer {

    @KafkaListener(topics = "testTopic")
    public void topicMessage(String message){
        log.info("Received Message in topic: {}", message);
        // 处理接收到的消息
    }

    @KafkaListener(topics = "testTopic2")
    public void topicMessage2(ConsumerRecord<?, ?> record, Acknowledgment ack, @Header(KafkaHeaders.RECEIVED_TOPIC) String topic){
        try {
            Optional message = Optional.ofNullable(record.value());
            if (message.isPresent()) {
                log.info("Received Message in topic: {}", message.get());
            }
            // 处理接收到的消息
        } catch (Exception e) {
            log.error("Error processing message", e);
        } finally {
            ack.acknowledge();
        }

    }

}

kafka配置批量并发消费

配置批量消费

yaml 复制代码
spring:
  kafka:
    consumer:
      # 一次 poll 最多返回的记录数
      max-poll-records: 3100 
      max-partition-fetch-bytes: 15728640                 #设置拉取数据的大小,15M
    listener:
      type: batch # 开启批量消费

配置并发消费

为了加快消费,我们可以提高并发数,比如下面配置我们将并发设置为 3。注意:并发量根据实际分区数决定,必须小于等于分区数,否则会有线程一直处于空闲状态

spring:
  kafka:
    consumer:
      # 一次 poll 最多返回的记录数
      max-poll-records: 3100 
      max-partition-fetch-bytes: 15728640                 #设置拉取数据的大小,15M
    listener:
      type: batch # 开启批量消费
      concurrency: 3 # 设置并发数

批量消费示例

java 复制代码
@KafkaListener(topics = "testTopic")
public void batchListener(List<ConsumerRecord<?,?>> records, Acknowledgment ack){
    try {
        records.forEach(record -> {
            // TODO 业务代码
        });
    } catch (Exception e) {
        log.error("Kafka监听异常"+e.getMessage(),e);
    } finally {
        ack.acknowledge();//手动提交偏移量
    }
}

除了通过配置文件配置外,还可以通过自定义配置类的方式实现批量消费,但是相对yml配置来说还是有点麻烦的:

java 复制代码
/**
 * 消费者配置
 */
@Configuration
public class KafkaConsumerConfig {
 
    /**
     * 消费者配置
     * @return
     */
    public Map<String,Object> consumerConfigs(){
        Map<String,Object> props = new HashMap<>();
        props.put(ConsumerConfig.GROUP_ID_CONFIG, "test-consumer-group");
        props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "127.0.0.1:9092");
        props.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, 5);
        props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        return props;
    }
 
    @Bean
    public KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<String, Object>> batchFactory() {
        ConcurrentKafkaListenerContainerFactory<String, Object> factory = new ConcurrentKafkaListenerContainerFactory<>();
        factory.setConsumerFactory(new DefaultKafkaConsumerFactory<>(consumerConfigs()));
        //并发数量
        factory.setConcurrency(3);
        //开启批量监听
        factory.setBatchListener(true);
        return factory;
    }
}

同时监听器通过@KafkaListener注解的containerFactory 配置指定批量消费的工厂即可,如下:

java 复制代码
@KafkaListener(topics = {"testTopic"},containerFactory = "batchFactory")
public void batchListener(List<ConsumerRecord<?,?>> records, Acknowledgment ack){
    try {
        records.forEach(record -> {
            // TODO 业务代码
        });
    } catch (Exception e) {
        log.error("Kafka监听异常"+e.getMessage(),e);
    } finally {
        ack.acknowledge();//手动提交偏移量
    }
}
相关推荐
2401_854391086 分钟前
SpringBoot社团管理:用户体验优化
spring boot·后端·ux
kirito学长-Java1 小时前
springboot/ssm考试系统Java学生在线考试系统web学习论坛源码
java·spring boot·学习
GGBondlctrl1 小时前
【Spring MVC】初步了解Spring MVC的基本概念与如何与浏览器建立连接
java·spring boot·spring mvc·requestmapping·restcontroller
leeyayai_xixihah2 小时前
0-1实现SpringBoot项目开发(1)-SpringBoot+mybatis+mysql+Navicat
java·spring boot·spring
pingzhuyan2 小时前
EasyExcel: 结合springboot实现表格导出入(单/多sheet), 全字段校验,批次等操作(全)
java·spring boot·servlet·threadlocal·easyexcel
天冬忘忧2 小时前
Kafka 分区分配及再平衡策略深度解析与消费者事务和数据积压的简单介绍
分布式·kafka
珍珠是蚌的眼泪2 小时前
kafka进阶_2.存储消息
kafka·offset·isr·hw·leo·数据一致性·lso
m0_748230212 小时前
【Spring Boot】Spring AOP中的环绕通知
spring boot·后端·spring
潘多编程2 小时前
动态定时任务在Spring Boot中集成Quartz的实践
java·spring boot·后端
2401_857636393 小时前
Spring Boot OA系统:企业办公自动化的创新实践
java·spring boot·后端