Windows+docker下简单kafka测试联调

环境:

bash 复制代码
1. Windows desktop
2. OpenJDK 17
3. Idea community
4. offset explorer(kafka GUI tool, optional)

一. 简单环境安装

1.安装完Windows desktop后,控制台拉取官方镜像(写时最新为4.1.1)

bash 复制代码
docker pull apache/kafka:4.1.1

拉取成功后通过docker images命令或者docker desktop Images中看到此镜像

2.运行实例,将端口映射到本机9092上:

bash 复制代码
docker run -d --name kafka -p 9092:9092 apche/kafka:4.1.1

使用docker ps或者在docker desktop的containers中查看刚才的实例

3.进入到实例里面, 用docker exec命令或者docker destop直接查看:

bash 复制代码
docker exec -it kafka bash
# or
docker exec -it [your kafka instance id] bash

kafka在/opt/kafka目录下,查看目录结构:

查看版本验证:

bash 复制代码
bin/kafka-topics.sh --version

查看本地已有主题

bash 复制代码
bin/kafka-topics.sh --bootstrap-server localhost:9092 --list

手动创建topic

bash 复制代码
bin/kafka-topics.sh --bootstrap-server localhost:9092 --create --topic your-topic-name

删除topic

bash 复制代码
bin/kafka-topics.sh --bootstrap-server localhost:9092 --delete --topic your-topic-name

二.使用Spring Boot/Java程序简单测试Kafka

1.去spring initializer网站上初始化一个Spring Boot项目,添加web+kafka依赖

2.用idea打开并添加如下代码:

application.yarml:

bash 复制代码
spring:
  kafka:
    bootstrap-servers: localhost:9092
    consumer:
      group-id: my-group
      auto-offset-reset: earliest
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
    producer:
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer

server:
  port: 8080
复制代码
KafkaController.java:
java 复制代码
package com.example.demo.controller;


import com.example.demo.service.KafkaProducer;
import org.springframework.web.bind.annotation.*;

@RestController
@RequestMapping("/kafka")
public class KafkaController {

    private final KafkaProducer kafkaProducer;

    public KafkaController(KafkaProducer kafkaProducer) {
        this.kafkaProducer = kafkaProducer;
    }

    @PostMapping("/send")
    public String sendMessage(@RequestParam String msg,
                              @RequestParam(defaultValue = "test-topic") String topic) {
        kafkaProducer.sendMessage(topic, msg);
        return "Message sent to topic '" + topic + "': " + msg;
    }
}
复制代码
KafkaConsumer.java:
java 复制代码
package com.example.demo.service;

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Service;

@Service
public class KafkaConsumer {

    @KafkaListener(topics = "test-topic", groupId = "my-group")
    public void listen(ConsumerRecord<String, String> record) {
        System.out.printf("Received message: topic=%s, partition=%d, offset=%d, value=%s%n",
                record.topic(), record.partition(), record.offset(), record.value());
    }
}
复制代码
KafkaProducer.java:
java 复制代码
package com.example.demo.service;

import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Service;

@Service
public class KafkaProducer {

    private final KafkaTemplate<String, String> kafkaTemplate;

    public KafkaProducer(KafkaTemplate<String, String> kafkaTemplate) {
        this.kafkaTemplate = kafkaTemplate;
    }

    public void sendMessage(String topic, String message) {
        kafkaTemplate.send(topic, message);
        System.out.println("Sent message: " + message + " to topic: " + topic);
    }
}

运行DemoApplication的main方法,启动spring boot,控制台最后打印:

相关推荐
zzb15804 分钟前
Agent记忆与检索
java·人工智能·python·学习·ai
Linux蓝魔10 分钟前
麒麟官方yum源配置V10SP2-V10SP3-V10SP3-2403
大数据·linux·运维
helloliyh11 分钟前
linux 删除指定日期目录(包括目录下文件)
linux·运维·服务器
半个俗人22 分钟前
06.Linux用户权限相关命令
linux·运维·服务器
涛声依旧3931624 分钟前
构建部署kubernetes所需主机
linux·运维·云原生·容器·kubernetes
Chris _data27 分钟前
S7-1500 常用工业通信协议详解与对比
运维·服务器·网络
种时光的人32 分钟前
Java+AI 无缝衔接:Spring AI 聊天模型入门到精通
java·人工智能·spring·ai·spring ai
dashizhi201538 分钟前
服务器共享文件禁止下载、禁止拖动共享文件到本地磁盘、禁止拷贝共享文件
运维·服务器·windows
Memory_荒年41 分钟前
Dubbo面试通关秘籍:从“小白”到“源码大神”的终极指南
java·后端·dubbo
wechatbot8881 小时前
【企业通信】基于IPAD协议的企业微信群聊管理API:群操作功能接口设计与实现
java·ios·微信·企业微信·ipad