Kafka | SpringBoot集成Kafka

SpringBoot集成Kafka

  • 一、前言
  • 二、项目
    • [1. pom](#1. pom)
    • [2. application.properties](#2. application.properties)
    • [4. 消息生产者-测试](#4. 消息生产者-测试)
    • [5. 消息消费者](#5. 消息消费者)
  • 三、启动测试
  • [四、有总结的不对的地方/或者问题 请指正, 我在努力中](#四、有总结的不对的地方/或者问题 请指正, 我在努力中)

一、前言

该文章中主要对SpringBoot 集成Kafka 主要是 application.properties 与 pom坐标就算集成完成,剩下的就是一些 消费者 / 发布者的操作了详细的请看项目代码。简简单单 快速集成

二、项目

1. pom

java 复制代码
<dependency>
         <groupId>org.springframework.kafka</groupId>
         <artifactId>spring-kafka</artifactId>
</dependency>

2. application.properties

java 复制代码
spring.kafka.bootstrap-servers=192.168.0.113:9092
# 生产者配置
spring.kafka.producer.retries=2
spring.kafka.producer.batch-size=16384
spring.kafka.producer.buffer-memory=33554432
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.acks=-1

# 消费者配置
spring.kafka.consumer.enable-auto-commit=true
spring.kafka.consumer.auto-commit-interval.ms=1000
spring.kafka.consumer.auto-offset-reset=latest
spring.kafka.consumer.max-poll-records=500
spring.kafka.consumer.fetch-max-wait.ms=500
spring.kafka.consumer.fetch-min-size=1
spring.kafka.consumer.heartbeat-interval.ms=3000
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer

4. 消息生产者-测试

java 复制代码
@RunWith(SpringJUnit4ClassRunner.class)
@SpringBootTest(classes = ZoheVideoStructApplication.class)
public class ZoheVideoStructApplicationTest {

    @Autowired
    private KafkaTemplate<String,String> kafkaTemplate;

    @Test
    public void test(){
        kafkaTemplate.send("sb_topic","123132132132132132123132132");
    }
}

5. 消息消费者

java 复制代码
@Component
public class KafkaConsumer {

    //监听消费
    @KafkaListener(topics = {"sb_topic"},groupId = "test")
    public void onNormalMessage(ConsumerRecord<String, Object> record) {
        System.out.println("简单消费:" + record.topic() + "-" + record.partition() + "="+  record.value());
    }

    //监听消费
    @KafkaListener(topics = {"sb_topic"},groupId = "test2")
    public void onNormalMessage2(ConsumerRecord<String, Object> record) {
        System.out.println("简单消费2:" + record.topic() + "-" + record.partition() + "=" + record.value());
    }

}

三、启动测试

四、有总结的不对的地方/或者问题 请指正, 我在努力中

相关推荐
网安Ruler27 分钟前
第49天:Web开发-JavaEE应用&SpringBoot栈&模版注入&Thymeleaf&Freemarker&Velocity
java·spring boot·后端
奔跑吧邓邓子1 小时前
【Java实战㉟】Spring Boot与MyBatis:数据库交互的进阶之旅
java·spring boot·实战·mybatis·数据库交互
kong@react2 小时前
springboot项目详细配置rabbitmq及使用rabbitmq完成评论功能
spring boot·rabbitmq·java-rabbitmq
JAVA学习通2 小时前
【RabbitMQ】如何在 Ubuntu 安装 RabbitMQ
分布式·rabbitmq
九转苍翎3 小时前
星辰诞愿——生日快乐
spring boot
Lansonli3 小时前
大数据Spark(六十三):RDD-Resilient Distributed Dataset
大数据·分布式·spark
JIngJaneIL3 小时前
汽车租赁|基于Java+vue的汽车租赁系统(源码+数据库+文档)
java·vue.js·spring boot·汽车·论文·毕设·汽车租赁系统
BYSJMG3 小时前
计算机毕业设计选题:基于Spark+Hadoop的健康饮食营养数据分析系统【源码+文档+调试】
大数据·vue.js·hadoop·分布式·spark·django·课程设计
JAVA学习通3 小时前
【RabbitMQ】----RabbitMQ 的7种工作模式
分布式·rabbitmq
励志成为糕手4 小时前
Hadoop进程:深入理解分布式计算引擎的核心机制
大数据·hadoop·分布式·mapreduce·yarn