Kafka | SpringBoot集成Kafka

SpringBoot集成Kafka

  • 一、前言
  • 二、项目
    • [1. pom](#1. pom)
    • [2. application.properties](#2. application.properties)
    • [4. 消息生产者-测试](#4. 消息生产者-测试)
    • [5. 消息消费者](#5. 消息消费者)
  • 三、启动测试
  • [四、有总结的不对的地方/或者问题 请指正, 我在努力中](#四、有总结的不对的地方/或者问题 请指正, 我在努力中)

一、前言

该文章中主要对SpringBoot 集成Kafka 主要是 application.properties 与 pom坐标就算集成完成,剩下的就是一些 消费者 / 发布者的操作了详细的请看项目代码。简简单单 快速集成

二、项目

1. pom

java 复制代码
<dependency>
         <groupId>org.springframework.kafka</groupId>
         <artifactId>spring-kafka</artifactId>
</dependency>

2. application.properties

java 复制代码
spring.kafka.bootstrap-servers=192.168.0.113:9092
# 生产者配置
spring.kafka.producer.retries=2
spring.kafka.producer.batch-size=16384
spring.kafka.producer.buffer-memory=33554432
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.acks=-1

# 消费者配置
spring.kafka.consumer.enable-auto-commit=true
spring.kafka.consumer.auto-commit-interval.ms=1000
spring.kafka.consumer.auto-offset-reset=latest
spring.kafka.consumer.max-poll-records=500
spring.kafka.consumer.fetch-max-wait.ms=500
spring.kafka.consumer.fetch-min-size=1
spring.kafka.consumer.heartbeat-interval.ms=3000
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer

4. 消息生产者-测试

java 复制代码
@RunWith(SpringJUnit4ClassRunner.class)
@SpringBootTest(classes = ZoheVideoStructApplication.class)
public class ZoheVideoStructApplicationTest {

    @Autowired
    private KafkaTemplate<String,String> kafkaTemplate;

    @Test
    public void test(){
        kafkaTemplate.send("sb_topic","123132132132132132123132132");
    }
}

5. 消息消费者

java 复制代码
@Component
public class KafkaConsumer {

    //监听消费
    @KafkaListener(topics = {"sb_topic"},groupId = "test")
    public void onNormalMessage(ConsumerRecord<String, Object> record) {
        System.out.println("简单消费:" + record.topic() + "-" + record.partition() + "="+  record.value());
    }

    //监听消费
    @KafkaListener(topics = {"sb_topic"},groupId = "test2")
    public void onNormalMessage2(ConsumerRecord<String, Object> record) {
        System.out.println("简单消费2:" + record.topic() + "-" + record.partition() + "=" + record.value());
    }

}

三、启动测试

四、有总结的不对的地方/或者问题 请指正, 我在努力中

相关推荐
CodeWithMe33 分钟前
【Note】《Kafka: The Definitive Guide》 第8章: Cross-Cluster Data Mirroring
分布式·kafka
Alaia.1 小时前
【kafka 3.9.1】单机版集群部署并配置kafka的SASL认证
分布式·kafka
GJCTYU1 小时前
spring中@Transactional注解和事务的实战理解附代码
数据库·spring boot·后端·spring·oracle·mybatis
风象南2 小时前
SpringBoot敏感配置项加密与解密实战
java·spring boot·后端
勤奋的知更鸟2 小时前
Kettle + 大数据实战:从数据采集到分布式处理的完整流程指南
大数据·分布式
Kookoos3 小时前
ABP VNext + Cosmos DB Change Feed:搭建实时数据变更流服务
数据库·分布式·后端·abp vnext·azure cosmos
写不出来就跑路3 小时前
暑期实习感悟与经验分享:从校园到职场的成长之路
java·开发语言·经验分享·spring boot
程序员张37 小时前
Maven编译和打包插件
java·spring boot·maven
灵犀学长9 小时前
EasyExcel之SheetWriteHandler:解锁Excel写入的高阶玩法
spring boot·excel