【kafka实战】04 Kafka生产者发送消息过程源码剖析

Kafka生产者发送消息过程源码剖析

1. 概述

Kafka生产者(Producer)是Kafka系统中负责将消息发送到Kafka集群的客户端组件。生产者发送消息的过程涉及多个步骤,包括消息的序列化、分区选择、消息累加、批次发送等。本文将深入剖析Kafka生产者发送消息的源码,并结合相关原理图进行讲解。

Kafka 基本概念与术语

  • Topic(主题):Kafka 中的消息分类逻辑单元,类似于数据库中的表。生产者将消息发送到特定的主题,消费者则从相应主题订阅并接收消息。例如,在一个电商系统里,可以有 "订单主题" 用于传递订单相关信息,"用户行为主题" 记录用户浏览、购买等操作,不同类型的业务数据通过主题进行区分,方便管理与处理。
  • Partition(分区):主题进一步细分的物理存储单元,一个主题可以包含多个分区。分区的存在实现了数据的并行读写,提升了 Kafka 的吞吐量。每个分区在存储层面是一个有序的、不可变的消息序列,消息在分区内按照追加的方式写入,通过分区号来标识。比如一个拥有高并发写入需求的 "日志主题",可以划分多个分区,让不同的日志数据分散到各个分区,避免单点写入瓶颈。
  • Broker(代理):Kafka 集群中的服务器实例,负责存储和转发消息。一个 Kafka 集群通常由多个 Broker 组成,它们协同工作,实现数据的高可用性与负载均衡。每个 Broker 都有自己的 ID,存储着主题的部分或全部分区数据,当生产者发送消息或消费者获取消息时,需要与 Broker 进行交互。
  • Producer(生产者):如前文所述,是消息的生产者,负责将外部系统的数据封装成消息,发送到 Kafka 集群的指定主题。它要处理消息序列化、缓冲、发送策略以及与集群的交互等诸多复杂任务,确保消息高效可靠传输,像实时数据采集系统中的传感器数据采集模块,就可以作为 Kafka 生产者将采集到的数据推送给集群。
  • Consumer(消费者):与生产者相对,是从 Kafka 集群的主题中拉取消息并进行处理的客户端。消费者可以以不同的消费模式运行,如单个消费者独立消费、多个消费者组成消费组共同消费一个主题,消费组内的消费者通过分区分配策略,协同消费主题下的各个分区,实现数据的并行处理,常见于大数据实时分析场景,不同的分析任务作为消费者从相应主题获取数据进行运算。
  • Consumer Group(消费组):多个消费者组成的逻辑分组,主要用于实现消息的负载均衡与容错。同一消费组内的消费者不会重复消费同一个分区的消息,而是按照一定策略分摊主题下各分区的消费任务,当组内某个消费者出现故障时,其他消费者能自动接管其负责的分区消费,保证数据处理的连续性,例如在一个大规模日志分析系统中,多个日志处理进程组成消费组,共同处理来自 "日志主题" 的海量数据。

2. Kafka生产者发送消息的核心流程

Kafka生产者发送消息的核心流程可以分为以下几个步骤:

  • 消息创建与序列化:生产者创建消息对象,并将消息的键和值进行序列化。

  • 分区选择:根据分区策略选择消息要发送到的分区。

  • 消息累加:将消息添加到消息累加器(RecordAccumulator)中,等待批量发送。

  • 批次发送:当满足一定条件时,将消息批次发送到Kafka集群。

  • 响应处理:处理Kafka集群返回的响应,确保消息发送成功。

下面我们将结合源码详细分析每个步骤。

Kafka 生产者主要由以下几个重要部分构成:

  • RecordAccumulator:消息收集器,用于缓存待发送的消息。生产者会先将消息批量存入这里,而非一条条直接发送,以提升传输效率。
  • Sender:真正负责将消息发送到 Kafka 集群的组件,它从 RecordAccumulator 中获取批量消息,并与集群建立连接,执行发送操作。
  • Metadata:维护 Kafka 集群的元数据信息,例如集群中有哪些 broker,各个主题的分区分布等。生产者依据这些信息决定消息该发往何处。

3. 源码剖析

3.1 消息创建与序列化

生产者发送消息的第一步是创建消息对象,并将消息的键和值进行序列化。Kafka消息的键和值可以是任意类型的数据,但最终需要序列化为字节数组才能通过网络传输。

java 复制代码
// org.apache.kafka.clients.producer.KafkaProducer#send
public Future<RecordMetadata> send(ProducerRecord<K, V> record, Callback callback) {
    // 1. 序列化消息的键和值
    byte[] serializedKey = keySerializer.serialize(record.topic(), record.headers(), record.key());
    byte[] serializedValue = valueSerializer.serialize(record.topic(), record.headers(), record.value());

    // 2. 分区选择
    int partition = partition(record, serializedKey, serializedValue, cluster);
    
    // 3. 将消息添加到累加器
    RecordAccumulator.RecordAppendResult result = accumulator.append(record, serializedKey, serializedValue, headers, partition, maxTimeToBlock);
    
    // 4. 如果批次已满或创建了新批次,则唤醒发送线程
    if (result.batchIsFull || result.newBatchCreated) {
        this.sender.wakeup();
    }
    
    return result.future;
}

在send方法中,首先通过序列化器将消息的键和值序列化为字节数组。Kafka提供了多种内置的序列化器,如StringSerializerByteArraySerializer等,用户也可以自定义序列化器。

3.2 分区选择

Kafka消息发送到哪个分区是由分区器(Partitioner )决定的。默认情况下,Kafka使用DefaultPartitioner,它根据消息的键进行哈希计算,然后根据哈希值选择分区。如果消息没有键,则采用轮询的方式选择分区。

java 复制代码
// org.apache.kafka.clients.producer.internals.DefaultPartitioner#partition
public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {
    List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);
    int numPartitions = partitions.size();
    
    if (keyBytes == null) {
        // 如果消息没有键,则采用轮询方式选择分区
        int nextValue = counter.getAndIncrement();
        List<PartitionInfo> availablePartitions = cluster.availablePartitionsForTopic(topic);
        if (availablePartitions.size() > 0) {
            return Utils.toPositive(nextValue) % availablePartitions.size();
        } else {
            return Utils.toPositive(nextValue) % numPartitions;
        }
    } else {
        // 如果消息有键,则根据键的哈希值选择分区
        return Utils.toPositive(Utils.murmur2(keyBytes)) % numPartitions;
    }
}

3.3 消息累加

消息累加器(RecordAccumulator )是Kafka生产者中的一个重要组件,它负责将消息按分区进行缓存,并等待批量发送。每个分区对应一个消息批次(RecordBatch),当批次大小达到一定阈值或等待时间超过一定阈值时,批次会被发送到Kafka集群。

java 复制代码
// org.apache.kafka.clients.producer.internals.RecordAccumulator#append
public RecordAppendResult append(ProducerRecord<K, V> record, byte[] serializedKey, byte[] serializedValue, Header[] headers, int partition, long maxTimeToBlock) {
    // 获取或创建对应分区的Deque
    Deque<ProducerBatch> deque = getOrCreateDeque(partition);
    
    // 尝试将消息添加到批次中
    synchronized (deque) {
        RecordAppendResult result = tryAppend(deque, record, serializedKey, serializedValue, headers);
        if (result != null) {
            return result;
        }
    }
    
    // 如果批次已满或创建了新批次,则返回结果
    return appendNewBatch(deque, partition, record, serializedKey, serializedValue, headers, maxTimeToBlock);
}

3.4 批次发送

当消息累加器中的批次满足发送条件时,发送线程(Sender )会将批次发送到Kafka集群。发送线程会从累加器中获取准备好的批次,并将其封装成ProducerRequest,然后通过网络发送到Kafka集群。

java 复制代码
// org.apache.kafka.clients.producer.internals.Sender#run
public void run() {
    while (running) {
        // 从累加器中获取准备好的批次
        RecordAccumulator.ReadyCheckResult result = accumulator.ready(cluster, now);
        
        // 发送批次
        sendProduceRequests(result.readyNodes, now);
    }
}

3.5 响应处理

Kafka集群在接收到消息后,会返回一个响应(ProducerResponse)。发送线程会处理这个响应,并根据响应结果更新消息的状态。如果消息发送成功,则调用用户提供的回调函数(Callback);如果发送失败,则根据配置的重试策略进行重试。

java 复制代码
// org.apache.kafka.clients.producer.internals.Sender#handleProduceResponse
private void handleProduceResponse(ClientResponse response, Map<TopicPartition, ProducerBatch> batches, long now) {
    for (Map.Entry<TopicPartition, ProducerBatch> entry : batches.entrySet()) {
        TopicPartition tp = entry.getKey();
        ProducerBatch batch = entry.getValue();
        
        if (response.wasDisconnected()) {
            // 处理网络断开的情况
            handleDisconnection(batch, tp, now);
        } else if (response.hasResponse()) {
            // 处理成功响应
            handleSuccessfulResponse(batch, tp, response, now);
        } else {
            // 处理其他错误
            handleErrorResponse(batch, tp, response, now);
        }
    }
}

4. 原理图

以下是Kafka生产者发送消息的核心流程示意图:

5. 总结

现将发送消息的详细流程总结如下

  • 当应用程序调用生产者的 send 方法发送一条消息时,消息首先会被序列化。Kafka 支持多种序列化方式,如常见的 StringSerializer、AvroSerializer 等,确保消息能以合适的二进制格式传输。序列化后的消息被封装成 ProducerRecord 对象,该对象包含了目标主题、分区信息(若有指定)、键值对等关键数据。
  • 接着,ProducerRecord 进入 RecordAccumulator。这里采用了一种类似缓冲池的机制,消息按照分区分类存放,每个分区都有自己独立的缓冲区。RecordAccumulator 会持续监测各个分区缓冲区的消息数量,一旦达到设定的批量大小(batch.size 参数配置),或者距离上次发送时间超过 linger.ms 设定的时长,就标记该分区的消息为可发送状态。
  • Sender 线程一直在后台运行,它周期性地轮询 RecordAccumulator,查找那些已标记为可发送的分区消息。当发现可发送的消息批次后,Sender 会从 Metadata 组件获取对应的 broker 地址信息,建立与目标 broker 的连接。这里涉及到 TCP 连接的建立、维护以及连接池的管理等复杂逻辑,以确保连接的高效复用与可靠性。
  • 与 broker 成功建立连接后,Sender 使用 Kafka 的协议格式,将消息批次组装成请求发送过去。在这个过程中,需要处理诸如请求超时、重试机制等异常情况。如果发送失败,根据生产者配置的重试次数(retries 参数),会自动进行重试,直到达到重试上限或者成功为止。
  • 一旦 broker 成功接收并处理了消息批次,它会返回一个响应给生产者。Sender 负责解析这个响应,确认消息是否被正确写入 Kafka 日志文件。若出现错误,例如写入副本不足导致的写入失败,生产者可能会根据配置的策略进行调整,如增加重试次数、调整消息发送策略等。

Kafka生产者发送消息的过程涉及多个步骤,包括消息的序列化、分区选择、消息累加、批次发送和响应处理。通过源码剖析,我们可以更深入地理解Kafka生产者的工作原理。希望本文能够帮助你更好地理解Kafka生产者的内部机制。

6. 参考

相关推荐
隔着天花板看星星34 分钟前
Flink-WordCount源码解析
大数据·分布式·flink
记录测试点滴3 小时前
【中间件】 Kafka
分布式·中间件·kafka
PlanOne_A4 小时前
【Redisson分布式锁】基于redisson的分布式锁
分布式
suyukangchen4 小时前
【kafka实战】06 kafkaTemplate java代码使用示例
java·kafka·linq
ekskef_sef4 小时前
Spring Boot 集成 Kafka
spring boot·kafka·linq
suyukangchen4 小时前
【kafka实战】05 Kafka消费者消费消息过程源码剖析
分布式·kafka·linq
苍老流年4 小时前
3. kafka事务消息
分布式·kafka·linq
雨会停rain5 小时前
springboot中使用注解实现分布式锁
java·spring boot·分布式
不懂说话的猿6 小时前
基于docker搭建Kafka集群,使用KRaft方式搭建,摒弃Zookeeper
docker·kafka·集群