kafka广播消费组停机后未删除优化

背景

kafka广播消息的时候为了保证groupId不重复,再创建的时间采用前缀+时间戳的形式,这样可以保证每次启动的时候是创建的新的,但是

会出现一个问题:就是每次停机或者重启都会新建一个应用实例,关闭应用后并不会删除kafka下面的消费组,导致消费组越来越多,目前

我们有promethes监控kafka消息偏移,一直没有消费的消费组就会进行报警;

解决思路

既然是没有删除消费组就通过优雅停机,应用关闭前采用java的api操作kafka消费组,进行删除

代码实现

1)编写类实现DisposableBean接口,实现destroy方法,注意每个项目定义的id会不一样,此例子中 id = "cfgs-broadcast"

java 复制代码
package com.simo.vsim.cfgs.init;
 
import com.alibaba.nacos.api.config.annotation.NacosValue;
import lombok.Data;
import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.admin.AdminClient;
import org.apache.kafka.clients.admin.AdminClientConfig;
import org.apache.kafka.clients.admin.DeleteConsumerGroupsResult;
import org.apache.kafka.common.KafkaFuture;
import org.springframework.beans.factory.DisposableBean;
import org.springframework.beans.factory.InitializingBean;
import org.springframework.kafka.config.KafkaListenerEndpointRegistry;
import org.springframework.kafka.listener.MessageListenerContainer;
import org.springframework.stereotype.Component;
 
import javax.annotation.Resource;
import java.util.Arrays;
import java.util.HashMap;
import java.util.Map;
 
@Data
@Component
@Slf4j
public class ApplicationListen implements InitializingBean, DisposableBean {
 
    @Resource
    private KafkaListenerEndpointRegistry registry;
 
    @NacosValue(value = "${spring.kafka.bootstrap-servers}", autoRefreshed = true)
    private String servers;
 
    @Override
    public void destroy()  {
        MessageListenerContainer listenerContainer = registry.getListenerContainer("cfgs-broadcast");
        String groupId = listenerContainer.getGroupId();
        Map<String, Object> props = new HashMap<>(1);
        props.put(AdminClientConfig.BOOTSTRAP_SERVERS_CONFIG,servers);
        AdminClient adminClient = AdminClient.create(props);
        DeleteConsumerGroupsResult deleteConsumerGroupsResult = adminClient.deleteConsumerGroups(Arrays.asList(groupId));
        KafkaFuture resultFuture = deleteConsumerGroupsResult.all();
        try {
            resultFuture.get();
            log.info("kafka关闭消费组="+groupId);
        } catch (InterruptedException e) {
            e.printStackTrace();
        } catch (Exception e) {
            e.printStackTrace();
        }
        adminClient.close();
    }
 
    @Override
    public void afterPropertiesSet() {
    }
}

2)接收kafka广播消息的时候指定容器id,用于第一步通过id进行删除,id = "cfgs-broadcast"

java 复制代码
/**
 * groupId不一样代表广播模式,earliest 可能重复消费,latest可能漏消费
 * @param message
 * @param ack
 */
@KafkaListener(containerFactory = "manualImmediateListenerContainerFactory" , topics = {"${kafka.topic.cfgs-broadcast}"},properties = {"auto.offset.reset=latest"},
        groupId = "cfgs-broadcast-" + "#{T(java.lang.System).currentTimeMillis()}",idIsGroup = false,id = "cfgs-broadcast")
public void onMessageManualBroadcast(List<Object> message, Acknowledgment ack){
    message.forEach(item -> handleMsg(2,item));
    //直接提交offset
    ack.acknowledge();
}

效果

1)正常启动有这个消费组:cfgs-broadcast-1696754926097

2)重新启动,通过日志显示已经删除(k8s默认是优雅停机)

如果是iead直接关闭下,不要一下子点击两下停止,点击一次是优雅停机,连续点击2次就是kill -9的效果,就无法看到效果

![在这里插入图片描述](https://img-blog.csdnimg.cn/d36947cdd8f048acaa886eadafeaa34b.png

3)查看kafka消费组,确实已经删除

相关推荐
程序消消乐5 小时前
Kafka 入门指南:从 0 到 1 构建你的 Kafka 知识基础入门体系
分布式·kafka
智能化咨询5 小时前
Kafka架构:构建高吞吐量分布式消息系统的艺术——进阶优化与行业实践
分布式·架构·kafka
Chasing__Dreams5 小时前
kafka--基础知识点--5.2--最多一次、至少一次、精确一次
分布式·kafka
RestCloud20 小时前
Kafka实时数据管道:ETL在流式处理中的应用
数据库·kafka·api
AAA修煤气灶刘哥1 天前
Kafka 入门不踩坑!从概念到搭环境,后端 er 看完就能用
大数据·后端·kafka
若鱼19191 天前
spring-kafka消费异常处理
spring·kafka
若鱼19191 天前
Kafka如何配置生产者拦截器和消费者拦截器
java·kafka
Chasing__Dreams1 天前
kafka--基础知识点--5.3--producer事务
分布式·kafka
Hello.Reader1 天前
Kafka 实现从网络层到日志与位点的“全景拆解”
分布式·kafka