kafka广播消费组停机后未删除优化

背景

kafka广播消息的时候为了保证groupId不重复,再创建的时间采用前缀+时间戳的形式,这样可以保证每次启动的时候是创建的新的,但是

会出现一个问题:就是每次停机或者重启都会新建一个应用实例,关闭应用后并不会删除kafka下面的消费组,导致消费组越来越多,目前

我们有promethes监控kafka消息偏移,一直没有消费的消费组就会进行报警;

解决思路

既然是没有删除消费组就通过优雅停机,应用关闭前采用java的api操作kafka消费组,进行删除

代码实现

1)编写类实现DisposableBean接口,实现destroy方法,注意每个项目定义的id会不一样,此例子中 id = "cfgs-broadcast"

java 复制代码
package com.simo.vsim.cfgs.init;
 
import com.alibaba.nacos.api.config.annotation.NacosValue;
import lombok.Data;
import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.admin.AdminClient;
import org.apache.kafka.clients.admin.AdminClientConfig;
import org.apache.kafka.clients.admin.DeleteConsumerGroupsResult;
import org.apache.kafka.common.KafkaFuture;
import org.springframework.beans.factory.DisposableBean;
import org.springframework.beans.factory.InitializingBean;
import org.springframework.kafka.config.KafkaListenerEndpointRegistry;
import org.springframework.kafka.listener.MessageListenerContainer;
import org.springframework.stereotype.Component;
 
import javax.annotation.Resource;
import java.util.Arrays;
import java.util.HashMap;
import java.util.Map;
 
@Data
@Component
@Slf4j
public class ApplicationListen implements InitializingBean, DisposableBean {
 
    @Resource
    private KafkaListenerEndpointRegistry registry;
 
    @NacosValue(value = "${spring.kafka.bootstrap-servers}", autoRefreshed = true)
    private String servers;
 
    @Override
    public void destroy()  {
        MessageListenerContainer listenerContainer = registry.getListenerContainer("cfgs-broadcast");
        String groupId = listenerContainer.getGroupId();
        Map<String, Object> props = new HashMap<>(1);
        props.put(AdminClientConfig.BOOTSTRAP_SERVERS_CONFIG,servers);
        AdminClient adminClient = AdminClient.create(props);
        DeleteConsumerGroupsResult deleteConsumerGroupsResult = adminClient.deleteConsumerGroups(Arrays.asList(groupId));
        KafkaFuture resultFuture = deleteConsumerGroupsResult.all();
        try {
            resultFuture.get();
            log.info("kafka关闭消费组="+groupId);
        } catch (InterruptedException e) {
            e.printStackTrace();
        } catch (Exception e) {
            e.printStackTrace();
        }
        adminClient.close();
    }
 
    @Override
    public void afterPropertiesSet() {
    }
}

2)接收kafka广播消息的时候指定容器id,用于第一步通过id进行删除,id = "cfgs-broadcast"

java 复制代码
/**
 * groupId不一样代表广播模式,earliest 可能重复消费,latest可能漏消费
 * @param message
 * @param ack
 */
@KafkaListener(containerFactory = "manualImmediateListenerContainerFactory" , topics = {"${kafka.topic.cfgs-broadcast}"},properties = {"auto.offset.reset=latest"},
        groupId = "cfgs-broadcast-" + "#{T(java.lang.System).currentTimeMillis()}",idIsGroup = false,id = "cfgs-broadcast")
public void onMessageManualBroadcast(List<Object> message, Acknowledgment ack){
    message.forEach(item -> handleMsg(2,item));
    //直接提交offset
    ack.acknowledge();
}

效果

1)正常启动有这个消费组:cfgs-broadcast-1696754926097

2)重新启动,通过日志显示已经删除(k8s默认是优雅停机)

如果是iead直接关闭下,不要一下子点击两下停止,点击一次是优雅停机,连续点击2次就是kill -9的效果,就无法看到效果

![在这里插入图片描述](https://img-blog.csdnimg.cn/d36947cdd8f048acaa886eadafeaa34b.png

3)查看kafka消费组,确实已经删除

相关推荐
CodeWithMe5 分钟前
【Note】《Kafka: The Definitive Guide》 第8章: Cross-Cluster Data Mirroring
分布式·kafka
Alaia.43 分钟前
【kafka 3.9.1】单机版集群部署并配置kafka的SASL认证
分布式·kafka
亲爱的非洲野猪16 小时前
Kafka消息积压的多维度解决方案:超越简单扩容的完整策略
java·分布式·中间件·kafka
亲爱的非洲野猪21 小时前
Kafka “假死“现象深度解析与解决方案
分布式·kafka
CodeWithMe21 小时前
【Note】《Kafka: The Definitive Guide》第三章: Kafka 生产者深入解析:如何高效写入 Kafka 消息队列
分布式·kafka
虾条_花吹雪21 小时前
2、Connecting to Kafka
分布式·ai·kafka
亲爱的非洲野猪1 天前
Kafka消息积压全面解决方案:从应急处理到系统优化
分布式·kafka
prince052 天前
Kafka 生产者和消费者高级用法
分布式·kafka·linq
菜萝卜子2 天前
【Project】基于kafka的高可用分布式日志监控与告警系统
分布式·kafka
csdn_aspnet2 天前
在 Windows 上安装和运行 Apache Kafka
windows·kafka