spring boot3 kafka集群搭建到使用

首先自行安装docker,通过docker容器安装kafka

CentOS 系统 docker安装地址

1.pom.xml和application.properties或者application.yml文件配置

XML 复制代码
<dependency>
    <groupId>org.springframework.kafka</groupId>
    <artifactId>spring-kafka</artifactId>
</dependency>
java 复制代码
spring:
  kafka:
    bootstrap-servers: [fafka地址1,fafka地址2,....]
#    producer序列化设置
    producer:
      #key序列化设置,设置成json对象
#      key-serializer: org.springframework.kafka.support.serializer.JsonSerializer
#    val序列化设置,设置成json对象
      value-serializer: org.springframework.kafka.support.serializer.JsonSerializer

2.博主安装了kafka ui插件,就直接创建主题了

当前一个集群,因为博主只搭建了一台服务器,也可以称为一个节点

创建主题

没有安装kafka ui,就再main那里启动项目时创建

javascript 复制代码
package com.atguigu.boot3_08_kafka;

import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import org.springframework.kafka.annotation.EnableKafka;
import org.springframework.kafka.config.TopicBuilder;

@EnableKafka //扫描kafka注解,开启基于注解的模式
@SpringBootApplication
public class Boot308KafkaApplication {

    public static void main(String[] args) {
        SpringApplication.run(Boot308KafkaApplication.class, args);
        TopicBuilder.name("my-new-topic")//主题
                .partitions(3)//分区
                .replicas(2)//副本
                .build();
    }

}

副本就是备份,有几节点就可以创建几个副本,副本数量一般采取分区数量-1,只有一个节点就N分区1副本


3.在main 加上这个注解@EnableKafka

java 复制代码
package com.atguigu.boot3_08_kafka;

import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import org.springframework.kafka.annotation.EnableKafka;

@EnableKafka //扫描kafka注解,开启基于注解的模式
@SpringBootApplication
public class Boot308KafkaApplication {

    public static void main(String[] args) {
        SpringApplication.run(Boot308KafkaApplication.class, args);

    }

}

4.生产者发送消息

java 复制代码
package com.atguigu.boot3_08_kafka.controller;

import com.atguigu.boot3_08_kafka.entity.Person;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RestController;

@RestController
public class KafkaController {

    @Autowired
    private KafkaTemplate kafkaTemplate;

    @GetMapping("/jjj") 
    public String hello() {
        kafkaTemplate.send("tach", 0,"hello","急急急132");//send("主题", 分区号,"key","val")
        return "ok";
    }

    @GetMapping("/odj")
    public String odj() {
        kafkaTemplate.send("tach", 0,"hello",new Person(1L,"odj",19));//对象json需要序列化,可用配置文件配置,也可以在对象中序列化对象
        return "OK";
    }
}

5.消费者监听消息

java 复制代码
package com.atguigu.boot3_08_kafka.listener;

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.kafka.annotation.PartitionOffset;
import org.springframework.kafka.annotation.TopicPartition;
import org.springframework.stereotype.Component;

@Component
public class MykafkaListener {

    /**
     * 默认的监听是从最后一个消息开始拿,也就是只会拿新消息,不会拿历史的
     * @KafkaListener(topics = "主题",groupId = "用户组")
     * ConsumerRecord 消费者从 Kafka 获取消息的各种元数据和实际的消息
     * @param record
     */
    @KafkaListener(topics = "tach",groupId = "teach")
    public void listen(ConsumerRecord<?, ?> record) {
        Object key = record.key();
        Object val = record.value();
        System.out.println("收到值key:"+key+"收到值val:"+val);
    }

    /**
     *  想要到历史的消息或者全部消息,只能设置偏移量
     *  @KafkaListener(groupId = "用户组" ,topicPartitions = {设置分区,设置偏移量})
     *  @TopicPartition(topic = "主题" ,partitionOffsets 设置偏移量)
     *  @PartitionOffset(partition = "哪个分区", initialOffset = "从第几个偏移量开始")
     *
     * @param record
     */
    @KafkaListener(groupId = "teach" ,topicPartitions = {
            @TopicPartition(topic = "tach" ,partitionOffsets = {
                    @PartitionOffset(partition = "0", initialOffset = "0")
            })
    })
    public void listens(ConsumerRecord<?, ?> record) {
        Object key = record.key();
        Object val = record.value();
        System.out.println("收到值key:"+key+"收到值val:"+val);
    }
}

最后查看结果


最后补充一个小知识

groupId = "用户组"

组里的成员是竞争模式

用户组和用户组之间是发布/订阅模式

由zookeeper分配管理

好了可以和面试官吹牛逼了


课外话

如果是传对象json需要序列化,创建对象时序列化,不推荐太原始重要是很占资源

因为开始我们都配置好了,有对象就会自动序列化

java 复制代码
package com.atguigu.boot3_08_kafka.entity;

import lombok.AllArgsConstructor;
import lombok.Data;
import lombok.NoArgsConstructor;

import java.io.Serializable;


@AllArgsConstructor
@NoArgsConstructor
@Data
public class Person implements Serializable {//不推荐implements Serializable 
    private Long id;
    private String name;
    private Integer age;
}
相关推荐
橘猫云计算机设计11 分钟前
基于jspm校园安全管理系统(源码+lw+部署文档+讲解),源码可白嫖!
java·spring boot·安全·毕业设计
幽络源小助理12 分钟前
SpringBoot学生宿舍管理系统的设计与开发
java·spring boot·后端·学生宿舍管理
猿java13 分钟前
源码分析:Spring IOC容器初始化过程
java·后端·spring
C182981825751 小时前
kafka rocketmq rabbitmq 都是怎么实现顺序消费的
kafka·rabbitmq·rocketmq
Java程序之猿1 小时前
Docker 部署Spring boot + Vue(若依为例)
vue.js·spring boot·docker
BirdMan982 小时前
app=Flask(__name__)中的__name__的意义
后端·python·flask
昨天今天明天好多天2 小时前
【Scala】
开发语言·后端·scala
wmze2 小时前
AbstractQueuedSynchronizer源码分析
后端
有龍则灵3 小时前
Dubbo3.2.x 服务发现流程源码解析
后端·dubbo
阿迪卡多3 小时前
C#-Lambda
后端