java Kafka批量消费和单个消费消息

1、批量消费消息

1.1 配置参数

fetch.min.bytes:拉取的最小字节数

fetch.max.bytes:拉取的最大字节数

max.partition.fetch.bytes:分区拉取的最大字节数

fetch.max.wait.ms:拉取操作的最大等待时间

max.poll.records:拉取操作最大获取的记录数量

以上参数决定了一次消费能消费多少条消息。

java 复制代码
    @Bean
    public KafkaListenerContainerFactory<?> kafkaBatchConsumerFactory() {
        return batchFactory(consumerConfig(KafkaConsumerGroupIdConstant.KAFKA_CONSUMER_BATCH_GROUP, KafkaConsumerResetOffsetEnum.EARLIEST.getType()));
    }

1.2 消费代码

java 复制代码
    @KafkaListener(groupId = KafkaConsumerGroupIdConstant.KAFKA_CONSUMER_BATCH_GROUP,
            topics = KafkaTopicConstant.KAFKA_TOPIC,
            containerFactory = "kafkaBatchConsumerFactory")
    public void batchConsume(List<ConsumerRecord<String, String>> records, Acknowledgment ack) {
        String topicName = KafkaTopicConstant.KAFKA_TOPIC;
        try {
            List<String> valueList = records.stream()
                    .map(ConsumerRecord::value).collect(Collectors.toList());
            for (String value : valueList) {
                log.info("批量消费topic:{}, value:{}", topicName, value);
            }
            ack.acknowledge();
        } catch (Exception e) {
            log.error("kafka消费{}:", topicName, e);
        }
    }

1.3 消费结果

2、单个消费消息

2.1 配置参数

java 复制代码
    @Bean
    public KafkaListenerContainerFactory<?> kafkaSingleConsumerFactory() {
        ConcurrentKafkaListenerContainerFactory<Integer, String> resultFactory = batchFactory(consumerConfig(KafkaConsumerGroupIdConstant.KAFKA_CONSUMER_SINGLE_GROUP, KafkaConsumerResetOffsetEnum.EARLIEST.getType()));
        resultFactory.setBatchListener(false);
        return resultFactory;
    }

2.2 消费代码

java 复制代码
    @KafkaListener(groupId = KafkaConsumerGroupIdConstant.KAFKA_CONSUMER_SINGLE_GROUP,
            topics = KafkaTopicConstant.KAFKA_TOPIC,
            containerFactory = "kafkaSingleConsumerFactory")
    public void singleConsume(ConsumerRecord<String, String> records, Acknowledgment ack) {
        String topicName = KafkaTopicConstant.KAFKA_TOPIC;
        try {
            log.info("单个消费 topic:{}, value:{}", topicName, records.value());
            ack.acknowledge();
        } catch (Exception e) {
            log.error("kafka消费{}:", topicName, e);
        }
    }

2.3 消费结果

注:

部分代码未能在博客内体现,请点击以下链接跳转至Gitee的xudongbase项目的kafka分支。

xudongbase: 主要是项目中可以用到的共通方法,现有easyexcel分支在持续更新中。欢迎大家Star和提交Issues。easyexcel分支:批量设置样式,批量添加批注,批量合并单元格,设置冻结行和列,设置行高列宽,隐藏行和列,绑定下拉框数据,设置水印,插入图片 - Gitee.comhttps://gitee.com/xudong_master/xudongbase/tree/kafka/

相关推荐
棠十一5 小时前
Rabbitmq
分布式·docker·rabbitmq
Lansonli6 小时前
大数据Spark(六十一):Spark基于Standalone提交任务流程
大数据·分布式·spark
Theodore_10227 小时前
大数据(2) 大数据处理架构Hadoop
大数据·服务器·hadoop·分布式·ubuntu·架构
Wo3Shi4七10 小时前
Kafka综合运用:怎么在实践中保证Kafka_高性能?
后端·kafka·消息队列
G探险者12 小时前
《深入理解 Nacos 集群与 Raft 协议》系列五:为什么集群未过半,系统就不可用?从 Raft 的投票机制说起
分布式·后端
G探险者12 小时前
《深入理解 Nacos 集群与 Raft 协议》系列一:为什么 Nacos 集群必须过半节点存活?从 Raft 协议说起
分布式·后端
G探险者12 小时前
《深入理解 Nacos 集群与 Raft 协议》系列四:日志复制机制:Raft 如何确保提交可靠且幂等
分布式·后端
G探险者12 小时前
《深入理解 Nacos 集群与 Raft 协议》系列三:日志对比机制:Raft 如何防止数据丢失与错误选主
分布式·后端
G探险者12 小时前
《深入理解 Nacos 集群与 Raft 协议》系列二:Raft 为什么要“选主”?选主的触发条件与机制详解
分布式·后端
Vesan,15 小时前
网络通讯知识——通讯分层介绍,gRPC,RabbitMQ分层
网络·分布式·rabbitmq·无人机