Kafka如何防止消息丢失

  1. 持久化存储
    • Kafka 使用基于日志的存储模型。每个主题的分区都会被分割成多个片段(Segment),每个片段都是一个可追加的日志文件。
    • 生产者发送的每条消息都会被追加到对应分区的当前活跃片段(active segment)中。
    • 这种设计保证了消息在写入时是持久化的,即使在写入过程中发生故障,已经写入的消息也不会丢失。
  2. 副本机制
    • Kafka 使用副本来提高消息的可靠性和持久性。每个主题的分区可以配置多个副本,每个副本分布在不同的 Broker 上。
    • 每个分区都有一个 Leader 副本(Leader Replica)和多个 Follower 副本(Follower Replica)。
    • 生产者发送消息到 Leader 副本,然后 Leader 副本负责将消息复制到所有的 Follower 副本。
    • 如果 Leader 副本故障,Kafka 会从 Follower 副本中选举新的 Leader,确保分区的可用性和消息的持久性。
  3. 确认机制
    • Kafka 允许生产者配置消息的确认机制,以控制消息发送的可靠性和延迟:
      • acks=0:生产者发送消息后不等待任何确认,直接发送下一条消息。这种模式下消息丢失的风险较高,因为生产者不会知道消息是否成功接收。
      • acks=1:Leader 副本收到消息后会向生产者发送确认,生产者认为消息已经成功发送。
      • acks=all (或 acks=-1):Leader 和所有的 ISR(In-Sync Replicas,同步副本)都确认接收到消息后,生产者认为消息已经成功发送。
    • 较高的确认级别可以减少消息丢失的风险,但会增加延迟,因为需要等待多个副本的确认。
  4. ISR(In-Sync Replicas)机制
    • Kafka 使用 ISR 机制来处理副本的复制问题。
    • ISR 是一组与 Leader 副本保持同步的副本集合。只有在 ISR 中的副本才会被用来进行消息的读写操作。
    • 如果某个副本由于网络延迟或其他问题无法及时追赶 Leader 副本的进度,它将被移出 ISR,从而避免读取不一致的数据。
    • 这种机制确保了即使一些副本出现问题,仍然可以继续向客户端提供一致的数据。
相关推荐
小马爱打代码2 小时前
Kafka - 消息零丢失实战
分布式·kafka
长河2 小时前
Kafka系列教程 - Kafka 运维 -8
运维·分布式·kafka
浩浩kids4 小时前
Hadoop•踩过的SHIT
大数据·hadoop·分布式
松韬5 小时前
Spring + Redisson:从 0 到 1 搭建高可用分布式缓存系统
java·redis·分布式·spring·缓存
雨会停rain5 小时前
如何提高rabbitmq消费效率
分布式·rabbitmq
java技术小馆7 小时前
Zookeeper中的Zxid是如何设计的
java·分布式·zookeeper·云原生
DemonAvenger7 小时前
深入剖析 sync.Once:实现原理、应用场景与实战经验
分布式·架构·go
Vic23348 小时前
Kafka简要介绍与快速入门示例
分布式·kafka
Lethehong10 小时前
崖山YashanDB:下一代国产分布式数据库的架构革新与行业实践
数据库·分布式·架构
遇码19 小时前
单机快速部署开源、免费的分布式任务调度系统——DolphinScheduler
大数据·运维·分布式·开源·定时任务·dolphin·scheduler