Kafka分区数扩容 Flink未发现新分区

背景

Kafka分区数进行了扩容,但负责消费的Flink没有发现新的分区。

原因

Flink默认是不会动态发现新的分区的。

导致的问题

新kafka分区的数据没有被消费,导致堆积,严重的会导致数据丢失。

解决方案1

适用于低频扩容、缩容kafka分区的场景
重启Flink,让Flink重新从Kafka获取分区数

解决方案2

适用于经常扩容、缩容kafka分区的场景

通过设置参数flink.partition-discovery.interval-millis 大于0 ,来开启自动获取分区。

flink.partition-discovery.interval-millis表示每过多少毫秒,会自动发现分区。

注意

Flink会从新分区的EARLIEST位置开始消费 ,也就是最新位置开始消费,旧的数据不会再消费了。

如果需要动态发现topic,也是该参数控制的,不过仅限通过正则表达式指定topic的方式。

参考文章:

https://blog.csdn.net/zl18310999566/article/details/103736398

相关推荐
无心水23 分钟前
【分布式利器:事务】4、SAGA模式:长事务的最佳选择?
分布式·seata·分布式事务·saga模式·tcc·分布式利器·长事务
2501_9418108340 分钟前
5G技术:如何推动智慧城市建设,提升城市管理与生活质量
kafka
lang201509282 小时前
Kafka延迟操作机制深度解析
分布式·python·kafka
zl9798997 小时前
RabbitMQ-下载安装与Web页面
linux·分布式·rabbitmq
2501_9416243310 小时前
云计算与边缘计算:未来数字化转型的双引擎
kafka
while(努力):进步11 小时前
人工智能的未来:如何改变我们的工作与生活
kafka
zl97989914 小时前
RabbitMQ-Work Queues
分布式·rabbitmq
2501_9414037614 小时前
人工智能与机器学习:未来科技的核心驱动力
kafka
回家路上绕了弯15 小时前
日增千万数据:数据库表设计与高效插入存储方案
分布式·后端
Code_Artist16 小时前
robfig/cron定时任务库快速入门
分布式·后端·go