kafka处理大量消息积压tips —— 筑梦之路

一、consumer导致kafka积压了大量消息

场景:

  1. 如果是Kafka消费能力不足,则可以考虑增加 topic 的 partition 的个数,

同时提升消费者组的消费者数量,消费数 = 分区数 (二者缺一不可)

  1. 若是下游数据处理不及时,则提高每批次拉取的数量。批次拉取数量过少

(拉取数据/处理时间 < 生产速度),使处理的数据小于生产的数据,也会造成数据积压。

方法:

  1. 增大partion数量,

  2. 消费者加了并发,服务, 扩大消费线程

  3. 增加消费组服务数量

  4. kafka单机升级成了集群

  5. 避免消费者消费消息时间过长,导致超时

  6. 使Kafka分区之间的数据均匀分布

二、消息过期失效

产生消息堆积,消费不及时,kafka数据有过期时间,一些数据就丢失了,主要是消费不及时

经验

  1. 消费kafka消息时,应该尽量减少每次消费时间,可通过减少调用三方接口、读库等操作,

从而减少消息堆积的可能性。

  1. 如果消息来不及消费,可以先存在数据库中,然后逐条消费

(还可以保存消费记录,方便定位问题)

  1. 每次接受kafka消息时,先打印出日志,包括消息产生的时间戳。

  2. kafka消息保留时间(修改kafka配置文件, 默认一周)

  3. 任务启动从上次提交offset处开始消费处理

三、综上使用kafka注意事项

  1. 由于Kafka消息key设置,在Kafka producer处,给key加随机后缀,使其均衡

  2. 数据量很大,合理的增加Kafka分区数是关键。

Kafka分区数是Kafka并行度调优的最小单元,如果Kafka分区数设置的太少,

会影响Kafka consumer消费的吞吐量. 如果利用的是Spark流和Kafka direct approach方式,

也可以对KafkaRDD进行repartition重分区,增加并行度处理.

相关推荐
ezreal_pan27 分钟前
Docker部署Kafka持久化遇到的各种问题及解决方案
docker·容器·kafka
KmSH8umpK10 小时前
Redis分布式锁从原生手写到Redisson高阶落地,附线上死锁复盘优化方案进阶第八篇
数据库·redis·分布式
KmSH8umpK13 小时前
Redis分布式锁从原生手写到Redisson高阶落地,附线上死锁复盘优化方案进阶第七篇
数据库·redis·分布式
_F_y18 小时前
仿RabbitMQ实现消息队列-服务端核心模块实现(4)
分布式·rabbitmq
Albert Edison21 小时前
【RabbitMQ】发布确认模式(使用案例)
分布式·rabbitmq·ruby
EXnf1SbYK1 天前
Redis分布式锁进阶第十二篇:全系列终极兜底复盘 + 锁架构巡检落地 + 线上零事故收尾方案
redis·分布式·架构
EXnf1SbYK1 天前
Redis分布式锁进阶第八篇:锁超时乱序深度踩坑 + 看门狗失效真实溯源 + 业务长耗时标准化兜底方案
数据库·redis·分布式
EXnf1SbYK1 天前
Redis分布式锁进阶第十一篇
数据库·redis·分布式
biyezuopinvip1 天前
分布式风电场低电压穿越故障建模与仿真
分布式·matlab·毕业设计·毕业论文·分布式风电场·低电压穿越故障·建模与仿真
苍煜1 天前
SpringBoot单体应用到分布式下的数据库锁、事务、Redis事务、分布式锁、分布式事务协调
数据库·spring boot·分布式