flink interval join为什么配置的是前后2分钟 ,但是每次都是左流到了4分钟,匹配不上才下发,和预期的不一样

客户反馈现象:

L.time between r.time - interval '1' minute and r.time + intervel '1' minute 实际上是2分钟匹配不上才下发

L.time between r.time - interval '1' minute and r.time 实际上是1分钟30秒匹配不上才下发

L.time between r.time and r.time + intervel'1' minute 实际上是立刻下发

L.time between r.time - interval '2' minute and r.time + intervel '2' minute 实际上是4分钟匹配不上才下发

排查后的结论:配置的上下界是[a,b],那结果为 1.5a + 0.5b 时间之后匹配不上才下发

复制代码
源码分析:由三个属性进行控制 分别是 左流时间,右流时间、 根据左右流时间得到的minCleanUpInterval,为0.5a+0.5b
this.leftRelativeSize = -leftLowerBound;   // 左流的时间 即a
this.rightRelativeSize = leftUpperBound;  // 右流的时间  即b
this.minCleanUpInterval =(this.leftRelativeSize + this.rightRelativeSize) / 2L;   // 最小的区间 为0.5a + 0.5b
this.allowedLateness  = 0;  // 默认为0
if (leftRow) {
    // 若是左流,则为 rowTime + a + this.minCleanUpInterval + 0 + 1L , 即为 1.5a + 0.5b + 1L
    cleanUpTime = rowTime + this.leftRelativeSize + this.minCleanUpInterval + this.allowedLateness + 1L;
    this.registerTimer(ctx, cleanUpTime);
    this.rightTimerState.update(cleanUpTime);
} else {
    // 若是右流,则为 rowTime + b + this.minCleanUpInterval + 0 + 1L , 即为 1.5b+ 0.5a + 1L
    cleanUpTime = rowTime + this.rightRelativeSize + this.minCleanUpInterval + this.allowedLateness + 1L;
    this.registerTimer(ctx, cleanUpTime);
    this.leftTimerState.update(cleanUpTime);
}

源码定位过程:

看到这个问题,立马能想到需要通过源码查找原因,flink join本质是对窗口的操作,窗口在flink底层是基于Timer定时器来实现的,只需在ctx.timerService().registerProcessingTimeTimer()方法处打断点进行debug,即可知道是从哪里进行注册,从而定位到上述的源码类:org.apache.flink.table.runtime.operators.join.interval.TimeIntervalJoin。

就这样,不到5分钟排查出了问题得到原因。

相关推荐
懒惰的橘猫29 分钟前
RDD-自定义分区器案例
大数据
富能量爆棚1 小时前
Spark缓存-cache
大数据·spark
依年南台1 小时前
Spark处理过程-案例数据清洗
大数据·hadoop
猪猪果泡酒1 小时前
Spark,RDD中的转换算子
大数据·分布式·spark
TDengine (老段)2 小时前
TDengine 做为 Spark 数据源
大数据·数据库·物联网·ajax·spark·时序数据库·tdengine
Robot2515 小时前
「华为」人形机器人赛道投资首秀!
大数据·人工智能·科技·microsoft·华为·机器人
CONTONUE11 小时前
运行Spark程序-在Idea中(二)
大数据·spark·intellij-idea
计算机人哪有不疯的11 小时前
图文展示HDFS、YARN、MapReduce三者关系
大数据·spark
祈53312 小时前
MapReduce 的工作原理
大数据·mapreduce
Agatha方艺璇12 小时前
MapReduce报错 HADOOP_HOME and hadoop.home.dir are unset.
大数据·hadoop·mapreduce