Kafka Docker 部署持久化避坑指南:解决重启后 Cluster ID 不匹配问题在前两篇系列文章中,我们完成了 Kafka 的 Docker Compose 基本部署,并解决了监听器(Listener)配置与客户端连接的问题。然而,当你准备将这套环境用于日常开发时,会发现一个致命缺陷:执行 docker-compose down && docker-compose up -d 后,Kafka 之前创建的所有 Topic 和消息全部丢失。 更严重的是,即使只是添加了数据卷映射、让数据目录持久化到宿主机,Kafka 也会陷入无限重启,日志中反复出现如下错误: