Kafka入门指南:从零开始掌握分布式消息队列

为什么要有消息队列

生活中有这样的场景

快递员将包裹送给买家。

我记得在小时候,收快递是需要快递员电话联系上门时间的。这非常不方便,一方面快递员手中可能有多个包裹,另一方面买家可能在上班时间抽不出身。

后来有了驿站,快递员只需要将包裹放入驿站,并通知买家按时取走。这种模式便捷了快递员和买家双方。

驿站的作用类似于"中间件",它的出现有这些好处
1.解耦系统组件

快递员和收货人无需接触也能完成事件,解放了快递员和收货人的时间。
2.异步处理

异步允许事情独立发生,相互之间不需要等待对方完成。快递员不需要询问收货人是否在家,收货人不需要等待快递员上门。
3.流量削峰

收货人不用面对多个快递同时抵达在不同位置的尴尬情况。
4.失败重试与可靠性

允许收货人因特殊原因当天无法取件(处理失败),驿站可以将包裹保留几日。

消息队列通信的模式

上面的例子中引出了"中间件"的概念,驿站就类似于消息队列,但消息队列有不同模式。

两种模式

1.点对点模式

Producer将Message放于Queue中,Consumer从中拉取信息。该模式下,发送到队列的消息被一个且只有一个消费者进行处理,消费者主动拉取消息的好处是频率可控,弊端是消费者不知是否有未处理的信息。
2.发布-订阅模式

该模式类似于公众号,新消息发送给所有关注的用户。消费者无需考虑是否有未处理的消息。弊端是消费者之间性能的差异带来的木桶效应,如Consumer1的处理速度为10,而Consumer2的处理速度为3,最后的推送速度只能小于3。但这极大浪费了Cinsumer1的性能。

Kafka

Kafka 本质上是一个 基于发布/订阅模型 的消息系统。作为一种高吞吐、可水平扩展、持久化、分布式提交日志服务。要想理解Kafka我们要先知道其基础架构及术语。

基础架构及术语

Broker

Broker是Kafka中的单个服务器节点,一个Kafka可以包含多个Broker,多个Broker组成Kafka集群。每个Broker都可以处理一部分数据(消息的接收、存储、传输)

Topic

消息的逻辑类别或数据流名称。对消息进行分类和组织,可以把它想象成文件夹名称。

Partition

是Topic的分区,一个Topic可能有多个分区。Partition 是 Kafka 实现并行处理和高吞吐的关键。生产者和消费者可以并行地与多个 Partition 交互。

Replica

Partition 的副本。每个 Partition 可以有多个 Replica,分布在不同的Broker上,用于容错。

Leader Replica/Follower Replica

每个 Partition 在某一时刻只有一个 Leader。所有针对该 Partition 的读写请求(生产和消费)都必须由 Leader 处理。

从 Leader Replica 复制数据。如果 Leader 失效,其中一个 Follower 会被选举为新的 Leader。

In-Sync Replica (ISR)

指那些与 Leader Replica 保持足够同步的 Replica 集合(包括 Leader 自身)。只有 ISR 中的 Follower 才有资格在 Leader 失效时被选举为新的 Leader。

Producer

向 Kafka Topic 发布消息的客户端应用程序,即是生产者,是消息的入口。

Consumer

从 Kafka Topic 订阅并读取消息的客户端应用程序,即是消费者,是消息的出口。

Consumer Group

将多个消费组组成一个消费者组。同一个分区的数据只能被消费者组中某一个用户消费,同一个消费者组的消费者可以在同一个Topic上消费不同分区(并行)。

ZooKeeper

Kafka 集群依赖 ZooKeeper 集群来存储和管理关键的元数据。

流程分析

发送数据

写入数据时,Producer先找到Leader,将数据写入Leader。这个过程展开来说如此:
1.将消息发给Leader
2.Leader写入数据
3.Follower同步Leader的消息
4.Follower发送ack表示同步完成
5.Leader收到所有Follwer的ack后向Producer发送ack,表示过程结束

ack是什么?
acks(Acknowledgments)是生产者(Producer)配置的核心参数之一,用于控制消息写入的可靠性级别。 它决定了生产者认为消息"成功发送"之前,需要多少个分区副本(Replica)确认收到该消息。

通常ack有三种配置:0、1、all

0代表不等待确认 ,生产者发送消息后立即认为成功,不等待Broker回应。可靠性最低但效率最高。

1代表Leader确认 ,生产者等待Leader将消息写入本地。可靠性和效率都是中等。

all代表全副本确认,等待ISR中所有副本都成功写入消息。可靠性最高但效率最低。

保存数据

Kafka会单独开辟一块磁盘空间,顺序写入数据。

Partition 结构

每个 Partition 是一个 追加写入的日志文件(Append-only Log),存储在磁盘上。Kafka 使用日志文件来持久化消息,每个 Partition 对应一个目录,目录下包含多个日志文件(Segment)。

bash 复制代码
<topic-name>-<partition-id>/
├── 00000000000000000000.index
├── 00000000000000000000.log
├── 00000000000000000000.timeindex
├── 00000000000000000001.index
├── 00000000000000000001.log
├── 00000000000000000001.timeindex
└── ...

Partition 的选择策略

当生产者发送消息到某个 Topic 时,Kafka 会根据以下策略选择将消息写入哪个 Partition:

1.指定 Partition:生产者可以显式指定 Partition

2.Key Hash:如果消息有 Key,则默认使用 Key 的 Hash 值取模 Partition 数量

3.轮询:没有 Key 时,默认轮询方式分配 Partition

数据保留策略

Kafka可以通过配置来设置数据的保留策略,包括基于时间的保留(如7天)和基于大小的保留(如1GB)。一旦数据超过了这些限制,就会被删除以释放空间。

消费数据

Kafka支持点对点和发布订阅两种模式。当单个消费者时,采取类似点对点模式;消费群组时,采用发布订阅模式。

前文提到过多个消费者组成的消费者组,每个消费者组有其独特的编号,同一个消费者组的消费者可以消费同一Topic下不同分区的数据,但是不会组内多个消费者消费同一分区的数据。

如果消费者数量和分区数量不一致:
消费者数量<分区数量 ------ 有的消费者会消费多个分区,效率低于消化单个分区的消费者
消费者数量>分区数量 ------ 多出来的消费者不消化数据

查找数据

Kafka 的查找数据过程是其高性能和高吞吐量的核心机制之一。Kafka 通过稀疏索引、日志段(Log Segment) 和 二分查找算法 实现高效的数据检索。

Kafka查找数据过程分为两个主要步骤:

  1. 定位目标日志段(Log Segment)
  2. 在日志段中查找具体消息

定位日志段

是 Kafka 存储消息的基本单元,每个 Partition 被划分为多个日志段(00000000000000000000.log 和 00000000000000000099.log)。

第一个日志段的起始偏移量为 0,后续日志段的起始偏移量为上一个日志段的最后一条消息的 offset。

Kafka使用二分查找算法在日志段列表中定位目标。

offset

即是偏移量 ,用于标识消息在 Kafka 分区(Partition)中的唯一位置。它是 Kafka 实现消息顺序性、消费进度追踪和数据可靠性管理的关键机制。

它有如下作用:

1.标识消息在分区中的位置

2.保证消息在分区内有序性

3.跟踪消费者的消费进度

查找具体消息

Kafka 的每个日志段包含两个关键文件:.log 文件 和.index 文件(稀疏索引)

稀疏索引:每隔一定字节数(默认 4KB)为一条消息创建索引项。如1、2、3、4、5... ------> 1、3、5...

整体流程概括为:稀疏索引 + 二分查找 + 顺序写入 + 内存映射

相关推荐
sz-lcw5 小时前
MySQL知识笔记
笔记·mysql·adb
古译汉书5 小时前
嵌入式铁头山羊STM32-各章节详细笔记-查阅传送门
数据结构·笔记·stm32·单片机·嵌入式硬件·个人开发
whltaoin5 小时前
SpringCloud 项目阶段九:Kafka 接入实战指南 —— 从基础概念、安装配置到 Spring Boot 实战及高可用设计
spring boot·spring cloud·kafka
2301_800050998 小时前
DNS 服务器
linux·运维·笔记
汇能感知8 小时前
光谱相机的未来趋势
经验分享·笔记·科技
Coovally AI模型快速验证9 小时前
从避障到实时建图:机器学习如何让无人机更智能、更安全、更实用(附微型机载演示示例)
人工智能·深度学习·神经网络·学习·安全·机器学习·无人机
Insist7539 小时前
基于OpenEuler部署kafka消息队列
分布式·docker·kafka
东木君_10 小时前
RK3588:MIPI底层驱动学习——入门第三篇(IIC与V4L2如何共存?)
学习
say_fall10 小时前
C语言底层学习(2.指针与数组的关系与应用)(超详细)
c语言·开发语言·学习
在未来等你10 小时前
Elasticsearch面试精讲 Day 20:集群监控与性能评估
大数据·分布式·elasticsearch·搜索引擎·面试