【大数据面试题】005 谈一谈 Flink Watermark 水印

一步一个脚印,一天一道面试题。

感觉我现在很难把水印描述的很好,但,完成比完美更重要。后续我再补充。各位如果有什么建议或补充也欢迎留言。

在实时处理任务时,由于网络延迟,人工异常,各种问题,数据往往会出现乱序,不按照我们的预期到达处理框架。

WaterMark 水印,就是为了一定程度的解决数据,延迟乱序问题的。

使用 WaterMark 一般有以下几个步骤:

  • 定义时间特性
    (Flink 1.12 已废弃,默认使用 事件时间)
    env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);
  • 设置 Watermark 策略,赋值事件时间
java 复制代码
        // 分配时间戳和水位线
        DataStream<Tuple2<Long, Integer>> withTimestampsAndWatermarks = parsedStream
                .assignTimestampsAndWatermarks(WatermarkStrategy
                        .<Tuple2<Long, Integer>>forBoundedOutOfOrderness(Duration.ofSeconds(5))
                        .withTimestampAssigner((element, recordTimestamp) -> element.f0));

话不多说,直接给个 Watermark 水印样例代码。

java 复制代码
public class SimpleWatermarkExample {
    public static void main(String[] args) throws Exception {
        // 设置流执行环境
        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        // 从 socket 文本流接收数据
        DataStream<String> input = env.addSource(new SocketTextStreamFunction("localhost", 9999, "\n", -1));

        // 解析输入的数据
        DataStream<Tuple2<Long, Integer>> parsedStream = input
                .map(new MapFunction<String, Tuple2<Long, Integer>>() {
                    @Override
                    public Tuple2<Long, Integer> map(String value) throws Exception {
                        String[] parts = value.split(",");
                        return new Tuple2<>(Long.parseLong(parts[0]), Integer.parseInt(parts[1]));
                    }
                });

        // 分配时间戳和水位线
        DataStream<Tuple2<Long, Integer>> withTimestampsAndWatermarks = parsedStream
                .assignTimestampsAndWatermarks(WatermarkStrategy
                        .<Tuple2<Long, Integer>>forBoundedOutOfOrderness(Duration.ofSeconds(5))
                        .withTimestampAssigner((element, recordTimestamp) -> element.f0));

        // 使用窗口函数统计每10秒内的最大值
        DataStream<String> maxValues = withTimestampsAndWatermarks
                .windowAll(TumblingEventTimeWindows.of(Time.seconds(10)))
                .apply(new WindowFunction<Tuple2<Long, Integer>, String, TimeWindow>() {
                    @Override
                    public void apply(TimeWindow window, Iterable<Tuple2<Long, Integer>> values, Collector<String> out) throws Exception {
                        int maxValue = Integer.MIN_VALUE;
                        for (Tuple2<Long, Integer> value : values) {
                            maxValue = Math.max(maxValue, value.f1);
                        }
                        out.collect("Window: " + window + " Max Value: " + maxValue);
                    }
                });

        // 打印结果
        maxValues.print();

        // 执行程序
        env.execute("Simple Flink Watermark Example");
    }
}
相关推荐
武子康5 小时前
大数据-98 Spark 从 DStream 到 Structured Streaming:Spark 实时计算的演进
大数据·后端·spark
阿里云大数据AI技术5 小时前
2025云栖大会·大数据AI参会攻略请查收!
大数据·人工智能
代码匠心8 小时前
从零开始学Flink:数据源
java·大数据·后端·flink
Lx35210 小时前
复杂MapReduce作业设计:多阶段处理的最佳实践
大数据·hadoop
武子康13 小时前
大数据-100 Spark DStream 转换操作全面总结:map、reduceByKey 到 transform 的实战案例
大数据·后端·spark
expect7g14 小时前
Flink KeySelector
大数据·后端·flink
阿里云大数据AI技术1 天前
StarRocks 助力数禾科技构建实时数仓:从数据孤岛到智能决策
大数据
Lx3521 天前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
武子康2 天前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark
阿里云大数据AI技术2 天前
大数据公有云市场第一,阿里云占比47%!
大数据