javaer快速上手kafka

一、安装与启动

1. 进入kafka官网下载安装包Apache Kafka

2 解压缩安装包

bash 复制代码
tar -zxvf kafka_2.13-3.7.0.tgz

3 进入到目录启动zookeeper与kafka

bash 复制代码
cd kafka_2.13-3.7.0

修改配置的数据地址

bash 复制代码
 vim ./config/zookeeper.properties

将dataDir改为你习惯的地址

bash 复制代码
vim ./config/server.properties

将log.dirs改为你习惯的地址

启动zookeeper

bash 复制代码
./bin/zookeeper-server-start.sh ./config/zookeeper.properties 

启动kafka

bash 复制代码
./bin/kafka-server-start.sh ./config/server.properties 

至此kafka服务启动 成功,windows 的启动命令在对应的windows目录下类似

二、kafka集成springboot

1. 添加依赖

首先,在你的pom.xml文件中添加必要的依赖项:

XML 复制代码
<dependencies>
    <!-- Spring Boot Starter for Kafka -->
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-kafka</artifactId>
    </dependency>
    <!-- 其他依赖项 -->
</dependencies>

2. 配置Kafka属性

application.propertiesapplication.yml文件中配置Kafka的属性:

application.properties
XML 复制代码
# Kafka broker地址
spring.kafka.bootstrap-servers=localhost:9092

# 消费者组ID
spring.kafka.consumer.group-id=my-group

# 生产者配置
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer

# 消费者配置
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer
application.yml
XML 复制代码
spring:
  kafka:
    bootstrap-servers: localhost:9092
    consumer:
      group-id: my-group
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
    producer:
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer

3. 创建Kafka生产者

创建一个Kafka生产者类,用于发送消息:

java 复制代码
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Service;

@Service
public class KafkaProducer {

    private static final String TOPIC = "my_topic";

    @Autowired
    private KafkaTemplate<String, String> kafkaTemplate;

    public void sendMessage(String message) {
        kafkaTemplate.send(TOPIC, message);
    }
}

4. 创建Kafka消费者

创建一个Kafka消费者类,用于接收消息:

java 复制代码
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Service;

@Service
public class KafkaConsumer {

    @KafkaListener(topics = "my_topic", groupId = "my-group")
    public void consume(String message) {
        System.out.println("Consumed message: " + message);
    }
}

5. 测试Kafka集成

你可以在你的控制器或其他服务中注入KafkaProducer并调用sendMessage方法来发送消息:

java 复制代码
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;

@RestController
public class KafkaController {

    @Autowired
    private KafkaProducer kafkaProducer;

    @GetMapping("/send")
    public String sendMessage(@RequestParam("message") String message) {
        kafkaProducer.sendMessage(message);
        return "Message sent to Kafka topic!";
    }
}

启动你的Spring Boot应用程序,然后访问http://localhost:8080/send?message=HelloKafka,你应该会在控制台看到消费者打印的消息。

三、一些常用命令

删除某个topic

bash 复制代码
bin/kafka-topics.sh --delete --topic cdc-analysis-infected-topic --bootstrap-server localhost:9092

查看topic

bash 复制代码
bin/kafka-topics.sh --describe --topic cdc-analysis-infected-topic --bootstrap-server localhost:9092

查看topic列表

bash 复制代码
bin/kafka-topics.sh --list --bootstrap-server localhost:9092

查看消费组 消息堆积 不能删topic 可能导致offset 一直不动

bash 复制代码
bin/kafka-consumer-groups.sh --bootstrap-server localhost:9092 --describe --group group2

消费者服务先停止 然后 手动设置问题topic的偏移量 跳过卡在的offset位置

bash 复制代码
./bin/kafka-consumer-groups.sh --bootstrap-server localhost:9092 --group group3 --reset-offsets --to-offset 1915 --topic cdc-analysis-infected-topic2 --execute
相关推荐
pale_moonlight11 小时前
九、Spark基础环境实战((上)虚拟机安装Scala与windows端安装Scala)
大数据·分布式·spark
二进制_博客12 小时前
eventTime+watermarker+allowedLateness到底窗口关闭时间是什么?
flink·kafka
BD_Marathon12 小时前
【Zookeeper】CAP理论——CAP介绍
linux·分布式·zookeeper
j***576813 小时前
【分布式文件存储系统Minio】2024.12保姆级教程
分布式
敲上瘾14 小时前
【探索实战】:Kurator分布式统一应用分发平台的全面解析与实践指南
分布式·容器·kubernetes·serverless
2501_941877981 天前
Python在微服务高并发异步日志聚合与智能告警分析架构中的实践
kafka
SuperHeroWu71 天前
【HarmonyOS 6】UIAbility跨设备连接详解(分布式软总线运用)
分布式·华为·harmonyos·鸿蒙·连接·分布式协同·跨设备链接
杜子不疼.1 天前
【探索实战】从0到1打造分布式云原生平台:Kurator全栈实践指南
分布式·云原生
最笨的羊羊1 天前
Flink CDC系列之:Kafka CSV 序列化器CsvSerializationSchema
kafka·csv·schema·flink cdc系列·serialization·序列化器
最笨的羊羊1 天前
Flink CDC系列之:Kafka的Debezium JSON 结构定义类DebeziumJsonStruct
kafka·debezium·flink cdc系列·debezium json·结构定义类·jsonstruct