Kafka分区数扩容 Flink未发现新分区

背景

Kafka分区数进行了扩容,但负责消费的Flink没有发现新的分区。

原因

Flink默认是不会动态发现新的分区的。

导致的问题

新kafka分区的数据没有被消费,导致堆积,严重的会导致数据丢失。

解决方案1

适用于低频扩容、缩容kafka分区的场景
重启Flink,让Flink重新从Kafka获取分区数

解决方案2

适用于经常扩容、缩容kafka分区的场景

通过设置参数flink.partition-discovery.interval-millis 大于0 ,来开启自动获取分区。

flink.partition-discovery.interval-millis表示每过多少毫秒,会自动发现分区。

注意

Flink会从新分区的EARLIEST位置开始消费 ,也就是最新位置开始消费,旧的数据不会再消费了。

如果需要动态发现topic,也是该参数控制的,不过仅限通过正则表达式指定topic的方式。

参考文章:

https://blog.csdn.net/zl18310999566/article/details/103736398

相关推荐
文艺倾年1 小时前
【八股消消乐】浅尝Kafka性能优化
分布式·性能优化·kafka
钟琛......1 小时前
Redisson 的分布式锁
分布式
CodeWithMe5 小时前
【Note】《Kafka: The Definitive Guide》第11章:Stream Processing
分布式·kafka
Edingbrugh.南空8 小时前
Flink 2.0 DataStream算子全景
人工智能·flink
bxlj_jcj8 小时前
Flink时间窗口详解
大数据·flink
诗旸的技术记录与分享8 小时前
Flink-1.19.0源码详解-番外补充4-JobGraph图
大数据·flink
落霞的思绪8 小时前
使用云虚拟机搭建hadoop集群环境
大数据·hadoop·分布式
dessler9 小时前
Kafka-日常运维命令
linux·运维·kafka
csdn_aspnet11 小时前
在 Docker 上安装和配置 Kafka、选择用于部署 Kafka 的操作系统
docker·kafka