41、Flink 连续窗口操作详解

使用窗口计算的结果
a)概述

窗口操作的结果会变回 DataStream,并且窗口操作的信息不会保存在输出的元素中,如果想要保留窗口的 meta-information,需要在 ProcessWindowFunction 里手动将他们放入输出的元素中。

输出元素中保留的唯一相关的信息是元素的 timestamp ,它被设置为窗口能允许的最大 timestamp,也就是 end timestamp - 1,因为窗口末端的 timestamp 是排它的,同时适用于 event-time 窗口和 processing-time 窗口。

在窗口操作之后,元素总是会携带一个 event-time 或 processing-time timestamp,对 Processing-time 窗口来说,这并不意味着什么。 而对于 event-time 窗口来说,"输出携带 timestamp" 以及 "watermark 与窗口的相互作用" 这两者使建立窗口大小相同的连续窗口操作变为可能。

b)watermarks 和 windows 的交互

当 watermark 到达窗口算子时,它触发了两件事:

  • 这个 watermark 触发了所有最大 timestamp(即 end-timestamp - 1)小于它的窗口
  • 这个 watermark 被原封不动地转发给下游的任务。
c)连续窗口操作

窗口结果的 timestamp 如何计算以及 watermark 如何与窗口相互作用使串联多个窗口操作成为可能;这提供了一种便利的方法,能够有两个连续的窗口,他们即能使用不同的 key, 又能让上游操作中某个窗口的数据出现在下游操作的相同窗口。

示例 :第一个操作中时间窗口[0, 5) 的结果会出现在下一个窗口操作的 [0, 5) 窗口中,即先在一个窗口内按 key 求和,再在下一个操作中找出这个窗口中 top-k 的元素。

复制代码
DataStream<Integer> input = ...;

DataStream<Integer> resultsPerKey = input
    .keyBy(<key selector>)
    .window(TumblingEventTimeWindows.of(Time.seconds(5)))
    .reduce(new Summer());

DataStream<Integer> globalResults = resultsPerKey
    .windowAll(TumblingEventTimeWindows.of(Time.seconds(5)))
    .process(new TopKWindowFunction());
相关推荐
Leo.yuan25 分钟前
基于地图的数据可视化:解锁地理数据的真正价值
大数据·数据库·信息可视化·数据挖掘·数据分析
漂流瓶6666661 小时前
运行Spark程序-在shell中运行 --SparkConf 和 SparkContext
大数据·分布式·spark
数巨小码人1 小时前
Linux常见命令
大数据·linux·运维·服务器·elasticsearch·搜索引擎
lqlj22331 小时前
RDD案例数据清洗
大数据·分布式·spark
£菜鸟也有梦2 小时前
Kafka进阶指南:从原理到实战
大数据·kafka
hellolianhua2 小时前
wordcount在mapreduce的例子
大数据·mapreduce
时序数据说2 小时前
IoTDB集群的一键启停功能详解
大数据·数据库·开源·时序数据库·iotdb
就不爱吃大米饭2 小时前
Chrome代理IP配置教程常见方式附问题解答
大数据·人工智能·搜索引擎
庄小焱2 小时前
数据治理域——数据同步设计
大数据·数据治理·数据同步·系统架构设计·大数据治理
成长之路5143 小时前
【更新】全国省市县-公开手机基站数据集(2006-2025.3)
大数据