Spring-Kafka确认机制报错:No Acknowledgment available as an argument

问题出现

在spring boot集成kafka时报错,报错信息:

java 复制代码
No Acknowledgment available as an argument, the listener container must have a MANUAL AckMode to populate the Acknowledgment.

翻译: Acknowledgment 参数不可用,监听容器需要设置一个手动的 AckMode 才能填充Acknowledgment

问题代码:

java 复制代码
@KafkaListener(topics = PENDING_TOPIC, groupId = KafkaProducer.TOPIC_GROUP1)
    public void topic_test(ConsumerRecord<?, ?> record, Acknowledgment ack, @Header(KafkaHeaders.RECEIVED_TOPIC) String topic) {
        Optional message = Optional.ofNullable(record.value());
        if (message.isPresent()) {
            Object msg = message.get();
            logger.info("topic.group1 消费了: Topic:" + topic + ",Message:" + msg);
            ack.acknowledge();
        }
    }

这是参考其他人的消费者端的代码,方法里有Acknowledgment 类型参数,说明该参数没有被识别。首先查一下这个参数的含义。

问题分析

Acknowledgment 类型参数的含义:

控制消息的确认机制。在kafka中,消费者提交偏移量时需要确认,执行ack.acknowledge();后代表告诉 Kafka 消费者组,当前的消息已经被成功处理并且可以提交偏移量。这意味着消费者不会再次处理这条消息。

Spring-kafka 提供了多种确认机制,也就是 AckMode。官方文档显示AckMode 有以下几种:

  • RECORD: 当监听器处理完记录返回时,提交偏移量.
  • BATCH: 处理完 poll() 返回的所有记录后,提交偏移量。
  • TIME: 当poll()返回的所有记录都已处理完毕后,只要超过上次提交后的 ackTime,就提交偏移量。
  • COUNT: 当poll()返回的所有记录都已处理完毕后,只要上次提交后已收到 ackCount 记录,就提交偏移量。
  • COUNT_TIME: 与 TIME 和 COUNT 类似,但如果任一条件为真,都会执行提交。
  • MANUAL: 处理完一批数据后,手动调用 Acknowledgment.acknowledge()方法将offest提交至缓存,之后在下一个poll() 之前用BATCH 方式提交。
  • MANUAL_IMMEDIATE: 当监听器调用 Acknowledgment.acknowledge() 方法时,立即提交偏移量。

报错原因:

从上面的集中确认机制中可以看到,只有MANUALMANUAL_IMMEDIATE 用到了Acknowledgment 其他都没有。所以需要把AckMode 配置成这两个其中一个才行,而查看配置文件发现我确实没有配。

解决办法:

application.yaml 中配置ack-mode: manual_immediate

在自定义配置AckMode 的时候,首先需要将enable-auto-commit 设置成false 才行,2.3版本之后默认是false,不过使用的默认机制是BATCH,所以还需要将ack-mode设成manual_immediate 来覆盖默认配置。

yaml 复制代码
spring:
  kafka:
    bootstrap-servers: localhost:9092
    consumer:
      auto-offset-reset: earliest
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
        # 值的反序列化方式
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      group-id: geo-friend
      enable-auto-commit: false # 设置成手动提交
      auto-commit-interval: 1S
    producer:
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
    listener:	# 配置监听容器的ackmode
      concurrency: 5
      ack-mode: manual_immediate
      missing-topics-fatal: false

参考资料:

spring-kafka 文档:https://docs.spring.io/spring-kafka/docs/2.8.2/reference/html/#committing-offsets

相关推荐
一位卑微的码农20 分钟前
深入解析Spring Cloud Config:构建高可用分布式配置中心
分布式·spring cloud·微服务·架构
Bai_Yin3 小时前
Debezium 与 Apache Kafka 的集成方式
分布式·kafka·apache·debezium
yngsqq3 小时前
c# —— StringBuilder 类
java·开发语言
劉煥平CHN3 小时前
RabbitMQ的脑裂(网络分区)问题
网络·分布式·rabbitmq
明达技术3 小时前
分布式 IO 模块:水力发电设备高效控制的关键
分布式
Asthenia04123 小时前
浏览器缓存机制深度解析:电商场景下的性能优化实践
后端
星星点点洲3 小时前
【操作幂等和数据一致性】保障业务在MySQL和COS对象存储的一致
java·mysql
xiaolingting3 小时前
JVM层面的JAVA类和实例(Klass-OOP)
java·jvm·oop·klass·instanceklass·class对象
风口上的猪20154 小时前
thingboard告警信息格式美化
java·服务器·前端
专注API从业者4 小时前
分布式电商系统中的API网关架构设计
大数据·数据仓库·分布式·架构