【SpringBoot系列】Springboot使用kafka的两种方式

🤵‍♂️ 个人主页:@香菜的个人主页,加 ischongxin ,备注csdn

✍🏻作者简介:csdn 认证博客专家,游戏开发领域优质创作者,华为云享专家,2021年度华为云年度十佳博主

🐋 希望大家多多支持,我们一起进步!😄

如果文章对你有帮助的话,

欢迎评论 💬点赞👍🏻 收藏 📂加关注+

系列文章:Spring Boot学习大纲,可以留言自己想了解的技术点

在公司用kafka比较多,今天整理下Springboot使用kafka的两种方式。

Kafka作为一个消息发布订阅系统,就包括消息生成者和消息消费者。

1、创建实验项目

第一步创建一个Springboot项目,引入spring-kafka依赖,这是后面的基础。

xml 复制代码
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.kafka</groupId>
            <artifactId>spring-kafka</artifactId>
        </dependency>

kafka配置

yaml 复制代码
spring:
  kafka:
    bootstrap-servers: kafka.tyjt.com:9092
    consumer:
      auto-offset-reset: earliest
      group-id: sharingan-group
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.ByteArrayDeserializer

2、自动档

为了方便使用kafka,Springboot提供了spring-kafka 这个包,在已开始我们已经导入了,下面直接使用吧

Spring项目里引入Kafka非常方便,使用kafkaTemplate(Producer的模版)+@KafkaListener(Consumer的监听器)即可完成生产者-消费者的代码开发

2.1 监听listener

为了使创建 kafka 监听器更加简单,Spring For Kafka 提供了 @KafkaListener 注解,

@KafkaListener 注解配置方法上,凡是此注解的方法就会被标记为是 Kafka 消息监听器,所以可以用

@KafkaListener 注解快速创建消息监听器。

less 复制代码
@Configuration
@EnableKafka
public class ConsumerConfigDemo {
    @KafkaListener(topics = {"test"},groupId = "group1")
    public void kafkaListener(String topic,String message){
        System.out.println("消息:"+message);
    }
}

2.2 发布消息

发布消息通过kafkaTemplate,kafkaTemplate是spring-kafka 的封装

less 复制代码
@Slf4j
@Service
public class KafkaProducerService {
    @Autowired
    private KafkaTemplate<String, String> kafkaTemplate;
    public void sendMessage(String topic, String key, String message) throws Exception {
        kafkaTemplate.send(topic,key,message);
    }
}

kafkaTemplate 有很多不同的发送方法,根据自己的需求使用,这里只记录最简单的状况。

3、手动档

3.1 手动创建consumer 关于consumer的主要的封装在ConcurrentKafkaListenerContainerFactory这个里头,

本身的KafkaConsumer是线程不安全的,无法并发操作,这里spring又在包装了一层,根据配置的spring.kafka.listener.concurrency来生成多个并发的KafkaMessageListenerContainer实例

java 复制代码
package com.tyjt.sharingan.kafka;
 
import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.Consumer;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.EnableKafka;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.listener.AcknowledgingConsumerAwareMessageListener;
import org.springframework.kafka.listener.ConcurrentMessageListenerContainer;
import org.springframework.kafka.listener.ContainerProperties;
import org.springframework.kafka.support.Acknowledgment;
import org.springframework.stereotype.Component;
 
import javax.annotation.Resource;
import java.util.Map;
import java.util.concurrent.ConcurrentHashMap;
 
/**
 * 启动kafka consumer
 *
 * @author 种鑫
 * @date 2023/10/18 17:26
 */
@EnableKafka
@Component
@Slf4j
public class KafkaConsumerMgr {
    @Resource
    ConcurrentKafkaListenerContainerFactory<String, byte[]> containerFactory;
 
    Map<String, ConcurrentMessageListenerContainer<?, ?>> containerMap = new ConcurrentHashMap<>();
    public void startListener(KafkaProtoConsumer kafkaConsumer) {
        //  停止相同的
        if (containerMap.containsKey(kafkaConsumer.getTopic())) {
            containerMap.get(kafkaConsumer.getTopic()).stop();
        }
        ConcurrentMessageListenerContainer<String, byte[]> container = createListenerContainer(kafkaConsumer);
        container.start();
        containerMap.put(kafkaConsumer.getTopic(), container);
    }
 
    private ConcurrentMessageListenerContainer<String, byte[]> createListenerContainer(KafkaProtoConsumer consumer) {
        ConcurrentMessageListenerContainer<String, byte[]> container = containerFactory.createContainer(consumer.topic());
        container.setBeanName(consumer.group() + "-" + consumer.topic());
        container.setConcurrency(consumer.getPartitionCount());
        consumer.deployContainer(container);
        // 防止被修改的配置
        ContainerProperties containerProperties = container.getContainerProperties();
        containerProperties.setMessageListener(new Listener<>(consumer));
        containerProperties.setAsyncAcks(false);
        containerProperties.setAckMode(ContainerProperties.AckMode.MANUAL_IMMEDIATE);
        containerProperties.setGroupId(consumer.group());
        return container;
    }
 
    /**
     * 定义监听
     */
    private static class Listener<T> implements AcknowledgingConsumerAwareMessageListener<String, T> {
        private final KafkaConsumer<T> kafkaConsumer;
 
        public Listener(KafkaConsumer<T> consumer) {
            this.kafkaConsumer = consumer;
        }
 
        @Override
        public void onMessage(ConsumerRecord<String, T> data, Acknowledgment acknowledgment, Consumer<?, ?> consumer) {
            log.info("group【{}】接收到来自topic【{}】的消息", kafkaConsumer.group(), data.topic());
            // 处理数据
            kafkaConsumer.process(data.value());
            // 提交offset
            log.info("group【{}】提交topic【{}】的offset", kafkaConsumer.group(), data.topic());
            consumer.commitSync();
        }
    }
}

这个可以根据需要动态的启动消费者

3.2 手动创建KafkaProducer

typescript 复制代码
@Bean
    public KafkaProducer<String, byte[]> kafkaProducer() {
 
        Properties props = new Properties();
 
        // 这里可以配置几台broker即可,他会自动从broker去拉取元数据进行缓存
        props.put("bootstrap.servers", bootstrapServers);
        // 这个就是负责把发送的key从字符串序列化为字节数组
        props.put("key.serializer", keySerializer);
        // 这个就是负责把你发送的实际的message从字符串序列化为字节数组
        props.put("value.serializer", valueSerializer);
        // 默认是32兆=33554432
        props.put("buffer.memory", bufferMemory);
        // 一般来说是要自己手动设置的,不是纯粹依靠默认值的,16kb
        props.put("batch.size", batchSize);
        // 发送一条消息出去,100ms内还没有凑成一个batch发送,必须立即发送出去
        props.put("linger.ms", lingerMs);
        // 这个是说你可以发送的最大的请求的大小 默认是1m=1048576
//        props.put("max.request.size", 10485760);
        // follower有没有同步成功你就不管了
        props.put("acks", acks);
        // 这个重试,一般来说,给个3次~5次就足够了,可以cover住一般的异常场景
        props.put("retries", retries);
        // 每次重试间隔100ms
        props.put("retry.backoff.ms", retryBackOffMs);
 
        props.put("max.in.flight.requests.per.connection", maxInFlightRequestsPerConnection);
 
        return new KafkaProducer<>(props);
    }

4、总结

4.1 区别

KafkaProducer是Kafka-client提供的原生Java Kafka客户端发送消息的API。

KafkaTemplate是Spring Kafka中提供的一个高级工具类,用于可以方便地发送消息到Kafka。它封装了KafkaProducer,提供了更多的便利方法和更高级的消息发送方式。

org.apache.kafka.clients.producer.KafkaProducer

org.springframework.kafka.core.KafkaTemplate

4.2 场景选择

在spring应用中如果需要订阅kafka消息,通常情况下我们不会直接使用kafka-client, 而是使用更方便的一层封装spring-kafka。

不需要动态的选择时候可以使用Spring-kafka,在需要动态创建时可以使用kafka-client的api进行处理

4.3 ConsumerRecord和ProducerRecord

两者都是kafka-client的类,在Spring-kafka中依然可以使用,可以发送和接受

相关推荐
许野平1 小时前
Rust: 利用 chrono 库实现日期和字符串互相转换
开发语言·后端·rust·字符串·转换·日期·chrono
齐 飞2 小时前
MongoDB笔记01-概念与安装
前端·数据库·笔记·后端·mongodb
LunarCod3 小时前
WorkFlow源码剖析——Communicator之TCPServer(中)
后端·workflow·c/c++·网络框架·源码剖析·高性能高并发
码农派大星。3 小时前
Spring Boot 配置文件
java·spring boot·后端
杜杜的man4 小时前
【go从零单排】go中的结构体struct和method
开发语言·后端·golang
幼儿园老大*4 小时前
走进 Go 语言基础语法
开发语言·后端·学习·golang·go
llllinuuu4 小时前
Go语言结构体、方法与接口
开发语言·后端·golang
cookies_s_s4 小时前
Golang--协程和管道
开发语言·后端·golang
为什么这亚子4 小时前
九、Go语言快速入门之map
运维·开发语言·后端·算法·云原生·golang·云计算
想进大厂的小王4 小时前
项目架构介绍以及Spring cloud、redis、mq 等组件的基本认识
redis·分布式·后端·spring cloud·微服务·架构