保证Kafka消息有序性

一、Kafka特性

  1. 写入同一个partion分区中的数据是一定有顺序的
  2. kafka中一个消费者消费一个partion的数据,消费者取出数据时,也是有顺序的

二、保证消息Kafka消息有序性

  1. 在生产者端,应保证消息被写入同一分区。可以在构造消息时指定消息的key
java 复制代码
producer.send(new ProducerRecord<>(topic, "order", msg))

ProducerRecord 对象。

(1)指明 partition 的情况下,直接将指明的值直接作为 partiton 值;

(2)没有指明 partition 值但有 key 的情况下,将 key 的 hash 值与 topic 的 partition数进行取余得到 partition 值;在Producer往Kafka插入数据时,控制同一Key分发到同一Partition ,并且设置参数max.in.flight.requests.per.connection=1,也即同一个链接只能发送一条消息,如此便可严格保证Kafka消息的顺序

(3)既没有 partition 值又没有 key 值的情况下,第一次调用时随机生成一个整数(后面每次调用在这个整数上自增),将这个值与 topic 可用的 partition 总数取余得到 partition值,也就是常说的 round-robin 算法。

  1. 在消费者端,需要被顺序处理的消息让同一线程顺序处理

可以在消费者中,消息分发至不同的线程时,加一个队列,消费者去做hash分发,将需要放在一起的数据,分发至同一个队列中 ,最后多个线程从队列中取数据,如下图所示。

参考文献:https://mp.weixin.qq.com/s?__biz=MzAxMjY5NDU2Ng==\&mid=2651863959\&idx=1\&sn=4f1699d1740490046450f5d2121424c6\&chksm=80497edeb73ef7c833ce889e89b5b2f6f2f479f6144164b35c8bd34e94214adf436e50b45c03\&scene=27

相关推荐
Yuer20257 小时前
用 Rust 做分布式查询引擎之前,我先写了一个最小执行 POC
开发语言·分布式·rust
张彦峰ZYF9 小时前
高并发场景下的缓存雪崩探析与应对策略
redis·分布式·缓存
张彦峰ZYF12 小时前
高并发场景下的缓存穿透问题探析与应对策略
redis·分布式
TT哇12 小时前
【RabbitMQ】@Autowired private RabbitTemplate rabbitTemplate;
java·分布式·rabbitmq
Rainly200013 小时前
工作日志之postgresql实现分布式锁
数据库·分布式·postgresql
ha_lydms13 小时前
3、Spark 函数_d/e/f/j/h/i/j/k/l
大数据·分布式·spark·函数·数据处理·dataworks·maxcompute
张彦峰ZYF13 小时前
优化分布式系统性能:热key识别与实战解决方案
redis·分布式·性能优化
张彦峰ZYF14 小时前
高并发场景下的大 Key 问题及应对策略
redis·分布式·缓存
张彦峰ZYF14 小时前
高并发场景下的缓存击穿问题探析与应对策略
redis·分布式·缓存
Wang's Blog17 小时前
Kafka: 生产者客户端工作机制深度解析
分布式·kafka