Flink-间隔联结

  1. 间隔联结只支持事件时间
  2. 间隔联结如果遇到迟到数据,则会关联不上,比如来了一个5秒的数据,它可以关联前2秒的数据,后3秒的数据,就是可以关联3秒到8秒的数据,然后又来了一个6秒的数据,可以关联4秒到9秒的数据,那么3秒的数据,就永远不会被关联到了,就可以删除了,然后又来了一个迟到数据,比如4秒的数据,可以关联2秒到7秒的数据,但是3秒的数据已经被删除了,所以就关联不上了。对于这种情况,解决办法就是,使用回撤流,比如left join,left join可以设置状态过期时间,这个时间是系统时间,比如我们设置过期时间是5分钟,那么A流的3秒的数据,可以和B流的4秒(迟到数据)的数据关联上,就解决了这个问题。
相关推荐
一瓢一瓢的饮 alanchan10 分钟前
Flink原理与实战(java版)#第2章 Flink的入门(第二节Flink简介)
java·大数据·flink·kafka·实时计算·离线计算·流批一体化计算
尘世壹俗人34 分钟前
分离Hadoop客户端单独使用
大数据·hadoop·分布式
厨 神1 小时前
11月10日ES本机
大数据·elasticsearch·搜索引擎
微盛企微增长小知识1 小时前
企业微信AI怎么用?从智能表格落地看如何提升运营效率
大数据·人工智能·企业微信
私域实战笔记2 小时前
如何选择企业微信SCRM?2025年3个选型参考维度
大数据·人工智能·企业微信·scrm·企业微信scrm
ZKNOW甄知科技2 小时前
重构企业运维智慧:低代码 ITSM 知识管理平台的创新与实践
大数据·运维·人工智能·程序人生·低代码·重构·it
AllData公司负责人3 小时前
云原生数据平台(cloudeon)--核心服务组件扩展
大数据·云原生·架构·开源
老罗-Mason3 小时前
Apache Flink运行环境搭建
python·flink·apache
武子康4 小时前
大数据-153 Apache Druid 实时接入 Kafka:从摄取到查询的完整实战
大数据·后端·nosql
快乐非自愿4 小时前
数智化时代:AI技术重构企业财务管理系统的底层逻辑与实践
大数据·人工智能·低代码