Kafka分区数扩容 Flink未发现新分区

背景

Kafka分区数进行了扩容,但负责消费的Flink没有发现新的分区。

原因

Flink默认是不会动态发现新的分区的。

导致的问题

新kafka分区的数据没有被消费,导致堆积,严重的会导致数据丢失。

解决方案1

适用于低频扩容、缩容kafka分区的场景
重启Flink,让Flink重新从Kafka获取分区数

解决方案2

适用于经常扩容、缩容kafka分区的场景

通过设置参数flink.partition-discovery.interval-millis 大于0 ,来开启自动获取分区。

flink.partition-discovery.interval-millis表示每过多少毫秒,会自动发现分区。

注意

Flink会从新分区的EARLIEST位置开始消费 ,也就是最新位置开始消费,旧的数据不会再消费了。

如果需要动态发现topic,也是该参数控制的,不过仅限通过正则表达式指定topic的方式。

参考文章:

https://blog.csdn.net/zl18310999566/article/details/103736398

相关推荐
回家路上绕了弯4 小时前
深入解析Agent Subagent架构:原理、协同逻辑与实战落地指南
分布式·后端
初次攀爬者5 小时前
Kafka的Rebalance基础介绍
后端·kafka
初次攀爬者1 天前
Kafka + KRaft模式架构基础介绍
后端·kafka
初次攀爬者1 天前
Kafka + ZooKeeper架构基础介绍
后端·zookeeper·kafka
初次攀爬者1 天前
Kafka 基础介绍
spring boot·kafka·消息队列
大大大大晴天2 天前
Flink生产问题排障-HBase NotServingRegionException
flink·hbase
大大大大晴天2 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
DemonAvenger5 天前
Kafka性能调优:从参数配置到硬件选择的全方位指南
性能优化·kafka·消息队列
初次攀爬者5 天前
ZooKeeper 实现分布式锁的两种方式
分布式·后端·zookeeper