3. kafka事务消息

一. kafka事务提交流程

1.Transaction ID

为了实现跨分区跨跨会话的事务,需要引入一个全局唯一的Transaction ID,并将生产者获得的id和Transaction ID绑定。这样当生产者重启后可以通过正在进行的Transaction ID获取原来的id

2.Transaction Coordinator

transaction coordinator(事务协调者)是运行在每个 kafka broker 上的一个模块,是 kafka broker 进程承载的新功能之一。transaction coordinator负责分配PID和管理事务以及读写Transaction log。

3.Transaction log

transaction log 是 kafka 的一个内部 topic,transaction log 有多个分区,每个分区都有一个 leader,该 leade对应哪个 kafka broker,哪个 broker 上的 transaction coordinator 就负责对这些分区的写操作。transaction log 存储事务的最新状态和其相关元数据信息。

  1. 生产者向任意kafka服务器发起请求获取相应事务协调者的地址。
  2. 生产者通过指定的TID向事务协调者请求PID,若TID存在返回PID,不存在新建一个PID。每次请求TID,TID会加上一个Epoch值,防止旧的生产者因为宕机重启后重试事务,造成事务重复。
  3. 生产者将消息存储的分区信息发给事务协调者,事务协调者将分区信息持久化。
  4. 生产者向对应分区发送消息。
  5. 生产者发起提交(commit)或者回滚请求(abort),事务协调者持久化该请求,标记为准备状态。
  6. 事务协调者向分区发送提交或者回滚请求,分区执行完成后返回结果。
  7. 事务协调者将处理结果持久化。
二. 代码演示

Kafka 的事务一共有涉及以下5个API

java 复制代码
// 1 初始化事务
void initTransactions();
// 2 开启事务
void beginTransaction() throws ProducerFencedException;
// 3 在事务内提交已经消费的偏移量(主要用于消费者)
void sendOffsetsToTransaction(Map<TopicPartition, OffsetAndMetadata> offsets,
String consumerGroupId) throws
ProducerFencedException;
// 4 提交事务
void commitTransaction() throws ProducerFencedException;
// 5 放弃事务(类似于回滚事务的操作)
void abortTransaction() throws ProducerFencedException;

下面以生产者为例演示事务消息

java 复制代码
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.common.serialization.StringSerializer;

import java.util.Properties;

public class KafkaTransactionDemo {

    private final static String BOOTSTRAP_SERVERS = "192.168.47.128:9092,192.168.47.129:9092,192.168.47.130:9092";

    public static void main(String[] args) throws Exception {
        Properties properties = new Properties();
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, BOOTSTRAP_SERVERS);
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        // 设置事务id
        properties.put(ProducerConfig.TRANSACTIONAL_ID_CONFIG, "transaction_id_0");

        KafkaProducer<String, String> producer = new KafkaProducer<String, String>(properties);
        // 初始化事务
        producer.initTransactions();
        // 开启事务
        producer.beginTransaction();
        try {
            for (int i = 0; i < 2; i++) {
                producer.send(new ProducerRecord<String, String>("test","message: hello,world"));
            }
            
            // 提交事务
            producer.commitTransaction();
        } catch (Exception e) {
            // 事务回滚
            producer.abortTransaction();
        } finally {
            producer.close();
        }
    }
}

运行结果:

bash 复制代码
# 启动一个console消费者, 当生产者事务提交时, 消息成功发送
[root@hadoop1 kafka-3.6.0]# bin/kafka-console-consumer.sh --bootstrap-server 192.168.47.128:9092 --topic test
message: hello,world
message: hello,world

以上演示了消息正常提交的情况,如果发生异常呢?

java 复制代码
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.common.serialization.StringSerializer;

import java.util.Properties;

public class KafkaTransactionDemo {

    private final static String BOOTSTRAP_SERVERS = "192.168.47.128:9092,192.168.47.129:9092,192.168.47.130:9092";

    public static void main(String[] args) throws Exception {
        Properties properties = new Properties();
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, BOOTSTRAP_SERVERS);
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        // 设置事务id
        properties.put(ProducerConfig.TRANSACTIONAL_ID_CONFIG, "transaction_id_0");

        KafkaProducer<String, String> producer = new KafkaProducer<String, String>(properties);
        // 初始化事务
        producer.initTransactions();
        // 开启事务
        producer.beginTransaction();
        try {
            for (int i = 0; i < 2; i++) {
                producer.send(new ProducerRecord<String, String>("test","message: hello,world"));
            }
            // 会发生异常
            int i = 1 / 0;
            // 提交事务
            producer.commitTransaction();
        } catch (Exception e) {
            // 事务回滚
            producer.abortTransaction();
        } finally {
            producer.close();
        }
    }
}

当发生异常,事务将会回滚,终端消费者将不会收到消息

bash 复制代码
[root@hadoop1 kafka-3.6.0]# bin/kafka-console-consumer.sh --bootstrap-server 192.168.47.128:9092 --topic test
相关推荐
Bohemian14 小时前
kafka学习笔记系列——小试牛刀
面试·kafka
左灯右行的爱情14 小时前
Kafka专辑- 整体架构
分布式·架构·kafka
山上春17 小时前
Odoo 分布式单体与微服务模式深度对比研究报告
分布式·微服务·架构
左灯右行的爱情17 小时前
Kafka专辑 : 生产者写入路径
分布式·kafka·linq
java1234_小锋17 小时前
Zookeeper集群数据是如何同步的?
分布式·zookeeper·云原生
左灯右行的爱情18 小时前
Kafka专辑: 日志存储模型
分布式·kafka·linq
LB211219 小时前
Kafka笔记
分布式·kafka·linq
想你依然心痛20 小时前
Spark大数据分析与实战笔记(第六章 Kafka分布式发布订阅消息系统-02)
笔记·分布式·spark
胡萝卜的兔21 小时前
go-zero rpc 分布式 微服务
分布式·rpc·golang
小股虫2 天前
分布式事务:在增长中台,我们如何做到“发出去的内容”和“记录的数据”不打架?
分布式·微服务·云原生·架构·团队建设·方法论