kafka怎么保证消息不被重复消费

在 Kafka 中,要保证消息不被重复消费,可从消费者端和生产者端分别采取不同策略,下面为你详细介绍:

消费者端实现幂等消费

幂等消费是指对同一条消息,无论消费多少次,产生的业务结果都是一样的。

业务层面实现幂等性
  • 唯一标识法:生产者在发送消息时,为每条消息添加一个全局唯一的 ID,如 UUID。消费者在消费消息时,先根据这个唯一 ID 去业务系统中查询该消息是否已经被处理过。如果已经处理过,则直接忽略;如果没有处理过,则进行业务处理,并记录该消息的处理状态。

python

复制代码
import uuid

# 生产者添加唯一 ID
message_id = str(uuid.uuid4())
message = {'id': message_id, 'data': 'your data'}
producer.send('your_topic', message)

# 消费者检查唯一 ID
processed_ids = set()
for message in consumer:
    message_id = message.value.get('id')
    if message_id in processed_ids:
        continue
    # 处理消息
    process_message(message.value)
    processed_ids.add(message_id)
  • 状态机法:对于一些有状态的业务场景,可以使用状态机来控制消息的处理逻辑。每个消息对应一个状态转换,只有在满足特定状态条件时才处理消息,避免重复处理。例如,订单状态从 "未支付" 到 "已支付",只有当订单处于 "未支付" 状态时,才处理支付消息。
精确一次消费语义

Kafka 从 0.11.0.0 版本开始引入了精确一次消费(EOS)语义。通过使用 Kafka 的事务和幂等生产者特性,可以保证消息在生产者端和消费者端的精确一次处理。

python

复制代码
from kafka import KafkaProducer, KafkaConsumer
from kafka.errors import KafkaError

# 生产者配置
producer = KafkaProducer(
    bootstrap_servers='localhost:9092',
    enable_idempotence=True,
    transactional_id='my_transactional_id'
)
producer.init_transactions()

try:
    producer.begin_transaction()
    producer.send('your_topic', b'your_message')
    producer.commit_transaction()
except KafkaError as e:
    producer.abort_transaction()
    print(f"Transaction aborted: {e}")

# 消费者配置
consumer = KafkaConsumer(
    'your_topic',
    bootstrap_servers='localhost:9092',
    isolation_level='read_committed'
)

for message in consumer:
    print(f"Received message: {message.value}")

生产者端避免重复发送

幂等生产者

Kafka 的幂等生产者可以保证在生产者重试时,不会向 Kafka 主题重复写入相同的消息。通过设置 enable.idempotence=true 来开启幂等生产者特性。

python

复制代码
from kafka import KafkaProducer

producer = KafkaProducer(
    bootstrap_servers='localhost:9092',
    enable_idempotence=True
)
事务生产者

事务生产者可以将多个消息的发送操作封装在一个事务中,保证这些消息要么全部成功发送,要么全部失败。如果发送过程中出现错误,可以通过回滚事务来避免部分消息重复发送。

python

复制代码
from kafka import KafkaProducer
from kafka.errors import KafkaError

producer = KafkaProducer(
    bootstrap_servers='localhost:9092',
    enable_idempotence=True,
    transactional_id='my_transactional_id'
)
producer.init_transactions()

try:
    producer.begin_transaction()
    producer.send('your_topic', b'message1')
    producer.send('your_topic', b'message2')
    producer.commit_transaction()
except KafkaError as e:
    producer.abort_transaction()
    print(f"Transaction aborted: {e}")

其他辅助措施

手动提交偏移量

消费者默认是自动提交偏移量的,这可能会导致在消息处理过程中出现异常时,偏移量已经提交,从而造成消息重复消费。可以将 enable.auto.commit 设置为 false,改为手动提交偏移量,只有在消息处理成功后才提交偏移量。

python

复制代码
from kafka import KafkaConsumer

consumer = KafkaConsumer(
    'your_topic',
    bootstrap_servers='localhost:9092',
    enable_auto_commit=False
)

for message in consumer:
    try:
        process_message(message.value)
        consumer.commit()
    except Exception as e:
        print(f"Error processing message: {e}")
合理设置重试机制

在生产者和消费者的重试机制中,要合理设置重试次数和重试间隔,避免因过度重试导致消息重复消费。同时,要对重试失败的情况进行记录和处理,以便后续排查问题

相关推荐
prince0514 分钟前
Kafka 生产者和消费者高级用法
分布式·kafka·linq
菜萝卜子1 小时前
【Project】基于kafka的高可用分布式日志监控与告警系统
分布式·kafka
csdn_aspnet2 小时前
在 Windows 上安装和运行 Apache Kafka
windows·kafka
幼稚园的山代王8 小时前
RabbitMQ 4.1.1初体验-队列和交换机
分布式·rabbitmq·ruby
小新学习屋9 小时前
Spark从入门到熟悉(篇三)
大数据·分布式·spark
沉着的码农12 小时前
【设计模式】基于责任链模式的参数校验
java·spring boot·分布式
ZHOU_WUYI1 天前
一个简单的分布式追踪系统
分布式
码不停蹄的玄黓1 天前
MySQL分布式ID冲突详解:场景、原因与解决方案
数据库·分布式·mysql·id冲突
王小王-1231 天前
基于Hadoop的公共自行车数据分布式存储和计算平台的设计与实现
大数据·hive·hadoop·分布式·hadoop公共自行车·共享单车大数据分析·hadoop共享单车
要开心吖ZSH1 天前
《Spring 中上下文传递的那些事儿》Part 4:分布式链路追踪 —— Sleuth + Zipkin 实践
java·分布式·spring