javaer快速上手kafka

一、安装与启动

1. 进入kafka官网下载安装包Apache Kafka

2 解压缩安装包

bash 复制代码
tar -zxvf kafka_2.13-3.7.0.tgz

3 进入到目录启动zookeeper与kafka

bash 复制代码
cd kafka_2.13-3.7.0

修改配置的数据地址

bash 复制代码
 vim ./config/zookeeper.properties

将dataDir改为你习惯的地址

bash 复制代码
vim ./config/server.properties

将log.dirs改为你习惯的地址

启动zookeeper

bash 复制代码
./bin/zookeeper-server-start.sh ./config/zookeeper.properties 

启动kafka

bash 复制代码
./bin/kafka-server-start.sh ./config/server.properties 

至此kafka服务启动 成功,windows 的启动命令在对应的windows目录下类似

二、kafka集成springboot

1. 添加依赖

首先,在你的pom.xml文件中添加必要的依赖项:

XML 复制代码
<dependencies>
    <!-- Spring Boot Starter for Kafka -->
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-kafka</artifactId>
    </dependency>
    <!-- 其他依赖项 -->
</dependencies>

2. 配置Kafka属性

application.propertiesapplication.yml文件中配置Kafka的属性:

application.properties
XML 复制代码
# Kafka broker地址
spring.kafka.bootstrap-servers=localhost:9092

# 消费者组ID
spring.kafka.consumer.group-id=my-group

# 生产者配置
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer

# 消费者配置
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer
application.yml
XML 复制代码
spring:
  kafka:
    bootstrap-servers: localhost:9092
    consumer:
      group-id: my-group
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
    producer:
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer

3. 创建Kafka生产者

创建一个Kafka生产者类,用于发送消息:

java 复制代码
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Service;

@Service
public class KafkaProducer {

    private static final String TOPIC = "my_topic";

    @Autowired
    private KafkaTemplate<String, String> kafkaTemplate;

    public void sendMessage(String message) {
        kafkaTemplate.send(TOPIC, message);
    }
}

4. 创建Kafka消费者

创建一个Kafka消费者类,用于接收消息:

java 复制代码
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Service;

@Service
public class KafkaConsumer {

    @KafkaListener(topics = "my_topic", groupId = "my-group")
    public void consume(String message) {
        System.out.println("Consumed message: " + message);
    }
}

5. 测试Kafka集成

你可以在你的控制器或其他服务中注入KafkaProducer并调用sendMessage方法来发送消息:

java 复制代码
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;

@RestController
public class KafkaController {

    @Autowired
    private KafkaProducer kafkaProducer;

    @GetMapping("/send")
    public String sendMessage(@RequestParam("message") String message) {
        kafkaProducer.sendMessage(message);
        return "Message sent to Kafka topic!";
    }
}

启动你的Spring Boot应用程序,然后访问http://localhost:8080/send?message=HelloKafka,你应该会在控制台看到消费者打印的消息。

三、一些常用命令

删除某个topic

bash 复制代码
bin/kafka-topics.sh --delete --topic cdc-analysis-infected-topic --bootstrap-server localhost:9092

查看topic

bash 复制代码
bin/kafka-topics.sh --describe --topic cdc-analysis-infected-topic --bootstrap-server localhost:9092

查看topic列表

bash 复制代码
bin/kafka-topics.sh --list --bootstrap-server localhost:9092

查看消费组 消息堆积 不能删topic 可能导致offset 一直不动

bash 复制代码
bin/kafka-consumer-groups.sh --bootstrap-server localhost:9092 --describe --group group2

消费者服务先停止 然后 手动设置问题topic的偏移量 跳过卡在的offset位置

bash 复制代码
./bin/kafka-consumer-groups.sh --bootstrap-server localhost:9092 --group group3 --reset-offsets --to-offset 1915 --topic cdc-analysis-infected-topic2 --execute
相关推荐
在未来等你2 小时前
Kafka面试精讲 Day 13:故障检测与自动恢复
大数据·分布式·面试·kafka·消息队列
庄小焱2 小时前
大数据存储域——Kafka实战经验总结
大数据·kafka·大数据存储域
cui_win3 小时前
基于Golang + vue3 开发的 kafka 多集群管理
分布式·kafka
iiYcyk3 小时前
kafka特性和原理
分布式·kafka
在未来等你5 小时前
Kafka面试精讲 Day 15:跨数据中心复制与灾备
大数据·分布式·面试·kafka·消息队列
Hello.Reader7 小时前
Kafka 设计与实现动机、持久化、效率、生产者/消费者、事务、复制、日志压缩与配额
分布式·kafka
叫我阿柒啊8 小时前
Java全栈开发实战:从基础到微服务的深度解析
java·微服务·kafka·vue3·springboot·jwt·前端开发
失散138 小时前
分布式专题——5 大厂Redis高并发缓存架构实战与性能优化
java·redis·分布式·缓存·架构
AscentStream8 小时前
谙流 ASK 技术解析(二):高性能低延迟
kafka·消息队列
小橘快跑11 小时前
动态控制rabbitmq中的消费者监听的启动和停止
分布式·rabbitmq