kafka消费延迟

一、背景

PAAS1220

CRM系统

系统版本: BC Linux For Euler release 21.10

二、故障现象

grafana上kafka指标:指标消费延迟过高

容器内部kafka消费情况:没有消费者进行消费

查看webgate页面:应用性能--信息总览,查看到实例全部为故障

三、处理过程

1、查看相关组件状态及日志

查看alarm,collector,并进行重启

2、查看webgate状态

目前此状态依旧处于故障

3、对比alarm配置****

进入alarm容器内部查看配置文件

查看alarm 部署的yaml文件

* 部署的yaml str的变量无法注入容器内,alarm中,groupid不能以"-"结尾,导致以上故障,但是此变量在容器内部可以正常输出的,可以自行尝试

#此配置中name名字需要更改为其他名字,此处name=kafka 里alarm消费组名字

#自动提交:消费者第一次poll消息的时候会根据auto.offset.reset策略来决定从哪里开始消费,因为消费是个循环,就会不停的调用poll,至于什么时候提交呢?这是由auto.commit.interval.ms来决定的,它会定期去提交。如果出现Rebalance的情况,那么在Rebalance之后消费者则从上一次提交位移的地方继续消费。所以基于上面的特点,自动提交不会丢失消息(也就是消息都会被消费)但是会发生重复消费的情况。比如你已经消费了消息并执行了业务逻辑,但是还没有到达提交周期,这时候线程挂了,重启后还是从上次的位置消费这就出现了重复消费,当然也有可能出现消息丢失的情况。

此环境之前alarm故障过,auto.offset.reset策略是从之前开始消费,所以找不到之前数据,一直此处不会进行消费,导致消费延迟不断在增加

4、更改配置

A、使用yaml删除alarm

kubectl delete -f monitor-alarm.yaml

B、更改alarm yaml配置

按照图片位置指示将yaml复制两个副本

副本都调整为1,deployment名字后面加序号-1,-2,-3。名字不同即可

3个yaml调整副本与deploy,随机举例一个yaml

C、该更消费组名称,及groupid

三个yaml对应位置,对照图片进行更改,随机列举一个,groupid不相同就行

#groupID:

一个字符串用来指示一组consumer所在的组。相同的groupID表示在一个组里。相同的groupID消费记录offset时,记录的是同一个offset。 所以,此处需要注意:

(1)如果多个地方都使用相同的groupid,可能造成个别消费者消费不到的情况

(2)如果单个消费者消费能力不足的话,可以启动多个相同groupid的consumer消费,处理相同的逻辑。但是,多线程的时候,需要增加每个groupid下的partition分区数量,便于每个线程稳定读取固定的partition,提高消费能力。

5、创建alarm

kubectl apply -f *.alarm.yaml

apply后,此处需要到kafka容器内去查看是否生成alarm消费组

6、删除之前使用的消费组

#此处注意,如果修改了消费组必须进入kafka删除之前舍弃的消费组。

四、验证

1、查看kafka消费组内是否有延迟

2、查看webgate是否有监控实例

相关推荐
【D'accumulation】2 小时前
Kafka地址映射不通(很常见的问题)
分布式·kafka
数翊科技8 小时前
深度解析 HexaDB分布式 DDL 的全局一致性
分布式
Tony Bai11 小时前
【分布式系统】03 复制(上):“权威中心”的秩序 —— 主从架构、一致性与权衡
大数据·数据库·分布式·架构
雨中飘荡的记忆19 小时前
Kafka入门:从零开始掌握消息队列
kafka
txinyu的博客19 小时前
HTTP服务实现用户级窗口限流
开发语言·c++·分布式·网络协议·http
独自破碎E19 小时前
RabbitMQ中的Prefetch参数
分布式·rabbitmq
深蓝电商API20 小时前
Scrapy+Rredis实现分布式爬虫入门与优化
分布式·爬虫·scrapy
indexsunny21 小时前
互联网大厂Java面试实战:Spring Boot与微服务在电商场景的应用解析
java·spring boot·redis·微服务·kafka·gradle·maven
回家路上绕了弯21 小时前
定期归档历史数据实战指南:从方案设计到落地优化
分布式·后端
rchmin1 天前
Distro与Raft协议对比分析
分布式·cap