Kafka线上问题优化

1. 如何防止消息丢失

  • 发送方:ack是1或-1/all可以防止消息丢失,如果要做到99.9999%,ack=all,把min.insync.replicas配置成分区备份数
  • 消费方:自动提交改为手动提交

2. 如何防止消息的重复消费

一条消息被消费者消费多次,。如果为了消息的不重复消费,而把生产端的重试机制关闭,消费端的手动提交改为自动提交,这样反而会出现消息丢失。那么可以直接在防止消息丢失的手段上加上消费消息时的幂等性特保证,便能解决重复消费的问题。

复制代码
幂等性如何保证:
  • MySQL插入业务id作为主键,主键是唯一的,所以一次只能插入一条
  • 使用Redis或zk的分布式锁(主流解决方案)

3.如何做到顺序消费

  • 发送方:在发送时将ack不能设置为0,关闭重试。使用同步发送,等到发送成功再发送下一条,确保消息时顺序发送的。
  • 接收方:消息时发送到一个分区中,只能有一个消费者组的消费者接收消息。
    kafka的顺序消费会牺牲部分性能。

4.解决消息积压问题

消息积压会导致很多问题,比如:磁盘被打满、生产端发消息导致kafka性能过慢,就容易出现服务雪崩,就需要相应的处理手段。

  • 方案一:在一个消费者中启动多个线程,让多个线程同时消费。提升一个消费者的消费能力。
  • 方案二:如果方案一还不够的话,这时候可以启动多个消费者,多个消费者部署到不同的机器上。其实,多个消费者部署在同一服务器上也可以提高消费能力,充分利用服务器的CPU资源。
  • 方案三:让一个消费者去把收到的消息往另外一个topic上发,另一个topic设置多个分区和多个消费者,进行具体的业务消费。

5.延迟队列

延迟队列的应用场景:在订单创建成功后如果超过30分钟没有付款,则需要取消订单,此时用延时队列来创建

  • 创建多个topic,每个topic表示延时的间隔

    • topic_5s:延时5s执行的队列
    • topic_1m:延时1分钟执行的队列
    • topic_30m:延时30分钟执行的队列
  • 消息发送者发送消息到相应的topic,并带上消息的发送时间

  • 消费者订阅相应的topic,消费时轮询消费整个topic中的消息

相关推荐
gQ85v10Db8 小时前
Redis分布式锁进阶第十七篇:微服务分布式锁全局治理 + 跨团队统一规范落地 + 全链路稳定性提升方案
redis·分布式·微服务
gQ85v10Db15 小时前
Redis分布式锁进阶第十八篇:本地缓存+分布式锁双锁架构 + 高并发削峰兜底 + 极致性能无损优化实战
redis·分布式·缓存
小江的记录本15 小时前
【Kafka核心】Kafka高性能的四大核心支柱:零拷贝、批量发送、页缓存、压缩
java·数据库·分布式·后端·缓存·kafka·rabbitmq
gQ85v10Db15 小时前
Redis分布式锁进阶第十四篇:全系列终局架构复盘 + 锁体系统一规范 + 线上全年零事故收官方案
redis·分布式·架构
KmSH8umpK16 小时前
Redis分布式锁进阶第十二篇
数据库·redis·分布式
gQ85v10Db16 小时前
Redis分布式锁进阶第十六篇:番外高阶避坑篇 + 隐性埋点锁故障深挖 + 疑难杂症终极兜底方案
数据库·redis·分布式
KmSH8umpK17 小时前
Redis分布式锁从原生手写到Redisson高阶落地,附线上死锁复盘优化方案进阶第九篇
数据库·redis·分布式
gQ85v10Db17 小时前
Redis分布式锁进阶第十五篇:全系列终极收官复盘 + 全站锁规范归档 + 生产零故障长期运维兜底总方案
运维·redis·分布式
_F_y18 小时前
仿RabbitMQ实现消息队列-服务端核心模块实现(5)
分布式·rabbitmq
Lyyaoo.18 小时前
Redis实现分布式锁
数据库·redis·分布式