Docker部署kafka实操+Java中访问

Docker部署kafka实操+Java中访问

1.compose.yaml脚本结构

docker-compose.yml

复制代码
version: '3.8'

services:
  zookeeper:
    image: bitnami/zookeeper:3.8
    container_name: zookeeper
    ports:
      - "2181:2181"
    environment:
      - ALLOW_ANONYMOUS_LOGIN=yes
    volumes:
      - zookeeper_data:/bitnami/zookeeper

  kafka:
    image: bitnami/kafka:3.4
    container_name: kafka
    ports:
      - "9092:9092"
    environment:
      - KAFKA_CFG_ZOOKEEPER_CONNECT=zookeeper:2181
      - ALLOW_PLAINTEXT_LISTENER=yes
      - KAFKA_CFG_ADVERTISED_LISTENERS=PLAINTEXT://${HOST_IP}:9092
      - KAFKA_CFG_AUTO_CREATE_TOPICS_ENABLE=true
    volumes:
      - kafka_data:/bitnami/kafka
    depends_on:
      - zookeeper

volumes:
  zookeeper_data:
    driver: local
  kafka_data:
    driver: local

启用服务:ip需要指定成自己的

复制代码
HOST_IP=192.168.17.17 docker compose up -d

启动成功之后会有两个服务:

2.kafka基本操作

1.创建主题:

复制代码
docker exec -it kafka kafka-topics.sh --create \
  --bootstrap-server localhost:9092 \
  --replication-factor 1 \
  --partitions 3 \
  --topic aaa-topic

成功截图:

2.发消息

复制代码
docker exec -it kafka kafka-console-producer.sh \
  --bootstrap-server localhost:9092 \
  --topic test-topic

测试截图:

3.消费消息

复制代码
docker exec -it kafka kafka-console-consumer.sh \
  --bootstrap-server localhost:9092 \
  --topic aaa-topic \
  --from-beginning

测试截图:

4.主题列表

复制代码
docker exec -it kafka kafka-topics.sh --list \
  --bootstrap-server localhost:9092

测试截图:

3.Springboot中访问

依赖

复制代码
        <dependency>
            <groupId>org.apache.kafka</groupId>
            <artifactId>kafka-clients</artifactId>
            <version>3.4.0</version>
        </dependency>

配置文件:

复制代码
# kafka配置
kafka:
  servers: 192.168.17.17:9092
  topicName: test-topic

Java代码配置:

复制代码
@Configuration
public class KafkaProducerConfig {

    @Value("${kafka.servers}")
    private String kafkaServers;

    @Bean
    public KafkaProducer<String, String> kafkaProducer() {
        Properties properties = new Properties();

        // 配置Kafka服务器地址
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, kafkaServers);

        // 配置序列化器
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());

        // 可选配置
        properties.put(ProducerConfig.ACKS_CONFIG, "all"); // 数据可靠性配置
        properties.put(ProducerConfig.RETRIES_CONFIG, 3); // 重试次数
        properties.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384); // 批量发送大小
        properties.put(ProducerConfig.LINGER_MS_CONFIG, 1); // 延迟发送时间

        return new KafkaProducer<>(properties);
    }
}

测试controller:

复制代码
@RestController
public class TestKafkaController {

    @Autowired
    private KafkaMessageService kafkaMessageService;

    /**
     * 提供HTTP接口测试消息发送
     */
    @GetMapping("/send-kafka")
    public String sendToKafka(String message) {
        kafkaMessageService.sendMessage(message);
        return "消息已发送: " + message;
    }
}

测试service

复制代码
public interface KafkaMessageService {
    public void sendMessage(String message);
}


@Service
public class KafkaMessageServiceImpl implements KafkaMessageService {

    @Resource
    private KafkaProducer<String, String> kafkaProducer;

    @Value("${kafka.topicName:}")
    private String topicName;

    @Override
    public void sendMessage(String message) {
        try {
            // 创建消息记录
            ProducerRecord<String, String> record = new ProducerRecord<>(topicName, message);
            // 发送消息
            kafkaProducer.send(record, (metadata, exception) -> {
                if (exception == null) {
                    System.out.println("消息发送成功: " +
                            "主题=" + metadata.topic() +
                            ", 分区=" + metadata.partition() +
                            ", 偏移量=" + metadata.offset());
                } else {
                    System.err.println("消息发送失败: " + exception.getMessage());
                }
            });

            // 刷新生产者,确保消息被发送
            kafkaProducer.flush();
        } catch (Exception e) {
            System.err.println("发送消息时发生错误: " + e.getMessage());
        }
    }
}

请求http://127.0.0.1:8080/send-kafka?message=hello 即可发送成功

相关推荐
三坛海会大神5551 小时前
k8s(六)Pod的资源控制器
云原生·容器·kubernetes
缘的猿2 小时前
Docker 与 K8s 网络模型全解析
docker·容器·kubernetes
运维栈记3 小时前
使用Grafana监控K8S中的异常Pod
docker·kubernetes·grafana
荣光波比3 小时前
K8S(十二)—— Kubernetes安全机制深度解析与实践:从认证到RBAC授权
安全·容器·kubernetes
liming4953 小时前
k8s 安装 kuboardV3 报错
云原生·容器·kubernetes
W.Buffer3 小时前
Kafka零拷贝原理深度解析:从传统拷贝痛点到工作实践优化
分布式·kafka
东城绝神5 小时前
《Linux运维总结:基于X86_64+ARM64架构CPU使用docker-compose一键离线部署consul 1.21.5容器版集群》
linux·运维·docker·架构·consul
小醉你真好5 小时前
17、Centos9 安装 1Panel
linux·docker·运维开发
shinelord明6 小时前
【大数据技术实战】Kafka 认证机制全解析
大数据·数据结构·分布式·架构·kafka
BUTCHER59 小时前
Kafka多网卡环境配置
分布式·kafka