Java消息中间件-Kafka全解(2026精简版)

从概念、安装、配置到高阶玩法与踩坑实录,一份速查表带走

一、概念:10秒建立知识坐标

  • 定位:分布式流式发布/订阅消息系统,高吞吐、可持久化、可水平扩展

  • 核心模型: Topic → Partition → Offset Producer → Broker → Consumer(Group)

  • 四大API:Producer / Consumer / Streams / Connect

二、安装&启动(Linux/Mac 3命令)

1.下载 & 解压

bash 复制代码
wget https://downloads.apache.org/kafka/3.8.0/kafka_2.13-3.8.0.tgz 
tar -xzf kafka_2.13-3.8.0.tgz && cd kafka_2.13-3.8.0

2.启动ZK(Kafka7已内置,但生产仍推荐独立ZK)

bash 复制代码
bin/zookeeper-server-start.sh config/zookeeper.properties

3.启动Broker

bash 复制代码
bin/kafka-server-start.sh config/server.properties

Windows 用同目录 .bat 即可

三、必改配置清单

示例值 说明
broker.id 0 集群内唯一
listeners PLAINTEXT://内网IP:9092 监听器,Docker/NAT必须显式
advertised.listeners PLAINTEXT://外网IP:9092 客户端真正连接的地址
log.dirs /data/kafka-logs 数据目录,SSD最佳
zookeeper.connect zk1:2181,zk2:2181 集群地址
num.partitions 12 默认分区数,≤Broker数×2
retention.ms 86400000 消息保留24h
compression.type lz4 压缩,高吞吐场景利器

端口/地址配错是第一大坑,Docker部署一定保持 listeners 与 advertised.listeners 映射一致 。

四、Spring Boot 3 最小可运行代码

依赖:

XML 复制代码
<dependency> 
  <groupId>org.springframework.kafka</groupId> 
  <artifactId>spring-kafka</artifactId> 
</dependency>

yml:

XML 复制代码
spring: 
  kafka: 
    bootstrap-servers: node1:9092,node2:9092 
    producer: 
      retries: 3 
      batch-size: 16384 # 16KB批 
      linger-ms: 10 
      acks: all # 高可靠 
    consumer: 
      group-id: ${spring.application.name} 
      enable-auto-commit: false 
      auto-offset-reset: earliest 
      max-poll-records: 500

生产者:

java 复制代码
@RestController 
class ProducerCtl { 
  @Autowired 
  private KafkaTemplate<String,String> tpl; 

  @GetMapping("/send") 
  public String send(String msg){ 
    tpl.send("demo", msg); return "ok"; 
  } 
}

消费者(手动提交,幂等):

java 复制代码
@KafkaListener(topics = "demo") 
public void listen(ConsumerRecord<String,String> rec, Acknowledgment ack){
  System.out.println("收到 = " + rec.value()); 
  ack.acknowledge(); // 手动提交offset 
}

启动即跑 。

五、进阶:高吞吐 & 低延迟组合拳

优化点 建议值 说明
batch.size 32KB-128KB 批量发送,提高吞吐
linger.ms 5-20 等待批填满
compression.type lz4/zstd 压缩比&CPU平衡
acks 1 / all 1=低延迟;all=高可靠
max.poll.records 500-1000 每次拉取条数
分区数 ≈ Broker数 × 2 并行度最大
内存映射 给足 OS PageCache 磁盘读↓

只加分区不加 Broker 是第二大坑,CPU/磁盘 IO 会爆 。

六、黑科技玩法

  1. 消息轨迹 → 给每条消息注入 trace-id,利用 Kafka Connect 写入 ES 可视化

  2. 流式 Join → Kafka Streams 双 Topic 按 Key 时间窗口 join,实时拼单

  3. 无限保序 → 单分区 + 幂等 Producer (enable.idempotence=true),Exactly-Once 语义

  4. Retry + DLQ → 消费失败超次后自动写 topic-demo-DLQ,隔离死信

  5. 热扩容 → bin/kafka-reassign-partitions.sh 在线迁移副本,业务无感知

七、易踩坑 & 急救

坑点 现象 急救方案
端口/地址配错 客户端连不上 listeners & advertised.listeners 用外网 IP,Docker 映射一致
消息丢失 生产成功但消费不到 acks=all + 副本因子 ≥ 2 + 手动提交 offset
磁盘爆满 Broker 挂死 定时清理 log.retention.hours / retention.ms
大消息拖慢 TPS 骤降 增大 replica.fetch.max.bytes + 压缩 lz4
只扩分区不扩机器 CPU 飙高 分区数 ≤ Broker×2
GC 风暴 延迟抖动 给足 16G+ 堆,G1GC,-XX:MaxGCPauseMillis=100

八、一条命令巡检集群健康

bash 复制代码
bin/kafka-run-class.sh kafka.tools.JmxTool \ 
  --object-name kafka.server:type=BrokerTopicMetrics,name=MessagesInPerSec,topic=* \ 
  --jmx-url service:jmx:rmi:///jndi/rmi://localhost:9999/jmxrmi

关注 MessagesInPerSec、RequestQueueTimeMs、ConsumerLag 三个指标,Lag > 5 万就要扩容或加 Consumer 了。

九、一句话总结

Kafka = 分区顺序写 + PageCache 零拷贝 + 批压缩 三驾马车, "地址配好、批要开大、分区与 Broker 同步扩、监控 Lag 及时告警" ------ 记住这四句,面试、调优、扛高并发都不会翻车!

相关推荐
白露与泡影10 分钟前
2026版Java架构师面试题及答案整理汇总
java·开发语言
历程里程碑24 分钟前
滑动窗口---- 无重复字符的最长子串
java·数据结构·c++·python·算法·leetcode·django
qq_2290580144 分钟前
docker中检测进程的内存使用量
java·docker·容器
我真的是大笨蛋1 小时前
InnoDB行级锁解析
java·数据库·sql·mysql·性能优化·数据库开发
钦拆大仁1 小时前
Java设计模式-单例模式
java·单例模式·设计模式
小手cool1 小时前
在保持数组中对应元素(包括负数和正数)各自组内顺序不变的情况下,交换数组中对应的负数和正数元素
java
笨手笨脚の1 小时前
深入理解 Java 虚拟机-04 垃圾收集器
java·jvm·垃圾收集器·垃圾回收
skywalker_111 小时前
Java中异常
java·开发语言·异常
没有天赋那就反复2 小时前
JAVA 静态方法
java·开发语言
Java天梯之路2 小时前
Spring Boot 钩子全集实战(七):BeanFactoryPostProcessor详解
java·spring boot·后端