flink interval join为什么配置的是前后2分钟 ,但是每次都是左流到了4分钟,匹配不上才下发,和预期的不一样

客户反馈现象:

L.time between r.time - interval '1' minute and r.time + intervel '1' minute 实际上是2分钟匹配不上才下发

L.time between r.time - interval '1' minute and r.time 实际上是1分钟30秒匹配不上才下发

L.time between r.time and r.time + intervel'1' minute 实际上是立刻下发

L.time between r.time - interval '2' minute and r.time + intervel '2' minute 实际上是4分钟匹配不上才下发

排查后的结论:配置的上下界是[a,b],那结果为 1.5a + 0.5b 时间之后匹配不上才下发

复制代码
源码分析:由三个属性进行控制 分别是 左流时间,右流时间、 根据左右流时间得到的minCleanUpInterval,为0.5a+0.5b
this.leftRelativeSize = -leftLowerBound;   // 左流的时间 即a
this.rightRelativeSize = leftUpperBound;  // 右流的时间  即b
this.minCleanUpInterval =(this.leftRelativeSize + this.rightRelativeSize) / 2L;   // 最小的区间 为0.5a + 0.5b
this.allowedLateness  = 0;  // 默认为0
if (leftRow) {
    // 若是左流,则为 rowTime + a + this.minCleanUpInterval + 0 + 1L , 即为 1.5a + 0.5b + 1L
    cleanUpTime = rowTime + this.leftRelativeSize + this.minCleanUpInterval + this.allowedLateness + 1L;
    this.registerTimer(ctx, cleanUpTime);
    this.rightTimerState.update(cleanUpTime);
} else {
    // 若是右流,则为 rowTime + b + this.minCleanUpInterval + 0 + 1L , 即为 1.5b+ 0.5a + 1L
    cleanUpTime = rowTime + this.rightRelativeSize + this.minCleanUpInterval + this.allowedLateness + 1L;
    this.registerTimer(ctx, cleanUpTime);
    this.leftTimerState.update(cleanUpTime);
}

源码定位过程:

看到这个问题,立马能想到需要通过源码查找原因,flink join本质是对窗口的操作,窗口在flink底层是基于Timer定时器来实现的,只需在ctx.timerService().registerProcessingTimeTimer()方法处打断点进行debug,即可知道是从哪里进行注册,从而定位到上述的源码类:org.apache.flink.table.runtime.operators.join.interval.TimeIntervalJoin。

就这样,不到5分钟排查出了问题得到原因。

相关推荐
EasyNTS5 分钟前
ONVIF/RTSP/RTMP协议EasyCVR视频汇聚平台RTMP协议配置全攻略 | 直播推流实战教程
大数据·网络·人工智能·音视频
Apache Flink12 分钟前
Lalamove基于Flink实时湖仓演进之路
大数据·flink
范桂飓24 分钟前
案例分析:东华新径,拉动式生产的智造之路
大数据·人工智能
杨超越luckly1 小时前
HTML应用指南:利用GET请求获取全国汉堡王门店位置信息
大数据·前端·信息可视化·数据分析·html
中科岩创1 小时前
高支模自动化监测解决方案
大数据·网络·物联网·自动化
D愿你归来仍是少年1 小时前
基于Python脚本实现Flink on YARN任务批量触发Savepoint的实践指南
大数据·运维·flink
腾讯云开发者1 小时前
支付系统设计入门:核心账户体系架构
大数据·人工智能
IT成长日记2 小时前
【Hadoop入门】Hadoop生态之Oozie简介
大数据·hadoop·分布式
凯禾瑞华实训室建设3 小时前
创新驱动:智慧养老综合实训室内的前沿技术应用
大数据·人工智能·科技·物联网·vr
BenBen尔3 小时前
在spark中,窄依赖算子map和filter会组合为一个stage,这种情况下,map和filter是在一个task内进行的吗?
大数据·分布式·spark