Kafka 消息有序性问题

Kafka 消息有序性问题

业务场景

在某些场景下,需要保证消息的有序性,比如同一个账号的买票退票改签信息,但是当此主题下有多个分区时,往往不能保证其有序性。

原因分析

当 kafka 的一个 topic 存在多个 partition 时,是无法保证数据的顺序性的,但是同一个 partition 中的数据是有顺序的。

技术建议

我们来回顾 kafka 的基础结构:

  • kafka 的消息组织方式是三级结构:主题-分区(副本)-消息。主题下的每条消息只会保存在某一份分区中,不会在多个分区中保存多份。
  • 分区是实现负载均衡以及高吞吐量的关键。
  • 常见分区策略:轮询、随机、按消息键保序。
  • 消息重试时不会换分区,只是简单地将消息重新发送到之前的分区。

解决方案

保证同一批因果依赖的消息分到一个分区,在此案例中就是将同一个账号的操作信息都发往一个分区。

相关推荐
爱吃泡芙的小白白23 分钟前
爬虫学习——使用HTTP服务代理、redis使用、通过Scrapy实现分布式爬取
redis·分布式·爬虫·http代理·学习记录
樟小叶_公众号同名33 分钟前
Kafka运维经验
后端·kafka
小名叫咸菜2 小时前
flume整合Kafka和spark-streaming核心编程
kafka·flume
什么芮.3 小时前
spark-streaming
pytorch·sql·spark·kafka·scala
桑榆08064 小时前
Kafka简介
spark·kafka
xmyLydia6 小时前
🚀 封装通用线程池 + Prometheus 可视化任务耗时与成功率(实战记录)
kafka·数据可视化
K8sCat6 小时前
Golang与Kafka的五大核心设计模式
后端·kafka·go
躺不平的理查德7 小时前
General Spark Operations(Spark 基础操作)
大数据·分布式·spark
talle20217 小时前
Zeppelin在spark环境导出dataframe
大数据·分布式·spark
企鹅不耐热.7 小时前
KafkaSpark-Streaming
kafka