面试全系列之【Kafka】之【经典版】系列

1. Kafka 为什么高吞吐?

  1. 顺序读写:磁盘顺序写远快于随机写。
  2. PageCache:利用操作系统缓存,不直接刷磁盘。
  3. 零拷贝:sendfile 减少内核态与用户态拷贝。
  4. 批量发送 & 压缩:消息批量提交,支持 gzip、snappy 等压缩。
  5. 分区并行:Topic 多分区,实现分布式并行消费与生产。

2. Kafka 如何保证消息不丢失?

生产者发丢 → Broker 存丢 → 消费者丢,加固

  • 生产者

    • acks=all
    • 开启重试(网络抖动、Leader重新选举造成没法出去。)
    • 回调处理失败(防止,失败了之后消息默默丢了。)
    • 可开启幂等防止重复(幂等之后,才能大胆重试。)
  • Broker

    • 副本数 ≥ 2
    • min.insync.replicas ≥ 2 . ISR 最小副本数设置
    • unclean.leader.election.enable=false(禁止不干净 Leader 选举,ISR都挂了
  • 消费者

    • 关闭自动提交
    • 业务执行成功后手动提交 offset(异步消费消息。)

3. Kafka 消息重复消费怎么解决?

重复原因:网络抖动、消费者挂掉、offset 未及时提交

生产者到Broker:重试+幂等+事务 解决:不丢、不重、不乱的问题。(精准一次性)

  1. 重试:保证消息不丢
  • 网络超时、Leader 切换、异常时,生产者重新发送====作用:确保消息一定能发到 Broker
  1. 幂等:保证重复发送不重复写入
  • 用 PID + sequenceNumber 去重====作用:重试多少次,Broker 只存一条
  1. 事务:保证跨分区、批量消息原子性
  • 把多条消息、多个分区、甚至 offset 提交包在一个事务里====作用:要么全成功,要么全失败

Broker对消息重复消费与否没有贡献。

消费者必须做好业务方的幂等消费。

使用消息ID进行去重

利用数据库唯一索引

Redis记录ID,先查在处理。

解决方案:

  1. 生产者开启幂等生产者(enable.idempotence=true)+ 事务。Kafka精准一次性
  2. 消费者端做业务幂等
    • 用唯一消息 ID 去重
    • 利用数据库唯一约束
    • Redis 记录已处理 ID,先查再处理
相关推荐
Devin~Y2 小时前
从Spring Boot到Spring AI:音视频AIGC内容社区Java大厂面试三轮连环问(含Kafka/Redis/安全/可观测性答案)
java·spring boot·redis·spring cloud·kafka·spring security·resilience4j
Jay-r2 小时前
当“同事.skill”刷爆GitHub:AI正把职场经验变成可复制的“技能包”
人工智能·职场和发展·生活·技术美术·程序员创富
不会写DN2 小时前
通过eino-ext如何正常indexer RAG?
网络·面试·go
studyForMokey4 小时前
【Android面试】动画 & Bitmap
android·面试·职场和发展
网域小星球4 小时前
C++ 从 0 入门(五)|C++ 面试必知:静态成员、友元、const 成员(高频考点)
开发语言·c++·面试·静态成员·友元函数
黑牛儿4 小时前
面试高频问题:从浏览器请求到PHP响应:完整流程拆解
android·后端·面试·php
中小企业实战军师刘孙亮4 小时前
先锁定目标客户,再找获客方法-佛山鼎策创局破局增长咨询
职场和发展·产品运营·创业创新·需求分析·学习方法
java干货4 小时前
在微服务里造一个微缩版 Kafka:Spring Boot 整合 Redis Stream 全指南
spring boot·微服务·kafka
嘻嘻哈哈樱桃5 小时前
数据流中的中位数 力扣--160
算法·leetcode·职场和发展