Flink算子通用状态应用测试样例

Flink算子通用状态应用测试样例

1. 获取Flink执行环境
c 复制代码
        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);
    

2. 创建数据源,生成随机数据
c 复制代码
        DataStream<Map<String, String>> source = env.addSource(new SourceFunction<Map<String, String>>() {
            @Override
            public void run(SourceContext<Map<String, String>> ctx) throws Exception {
                while (true) {
                    HashMap<String, String> hashMap = new HashMap<>();
                    hashMap.put("ID", new Random().nextInt(3) + 1 + "");
                    hashMap.put("AMT", "1");
                    System.out.println("------");
                    System.out.println("生产数据:" + hashMap);
                    ctx.collect(hashMap);
                    Thread.sleep(1000);
                }
            }
            @Override
            public void cancel() {}
        });

3. 按照ID和星期几进行分组
c 复制代码
        KeyedStream<Map<String, String>, String> keyedStream = source.keyBy(new KeySelector<Map<String, String>, String>() {
            @Override
            public String getKey(Map<String, String> value) throws Exception {
                return value.get("ID") + LocalDate.now().getDayOfWeek();
            }
        });

4. 处理函数,实现状态初始化和元素处理逻辑
c 复制代码
        SingleOutputStreamOperator<Map<String, String>> process = keyedStream.process(new KeyedProcessFunction<String, Map<String, String>, Map<String, String>>() {
            private AggregatingState<Map<String, String>, Map<String, String>> aggState;

            @Override
            public void open(Configuration parameters) throws Exception {
                // 配置状态的TTL
                StateTtlConfig ttlConfig = StateTtlConfig
                        .newBuilder(Time.days(1))
                        .setUpdateType(StateTtlConfig.UpdateType.OnCreateAndWrite) // 仅在创建和写入时清除,另一个读和写时清除
                        .setStateVisibility(StateTtlConfig.StateVisibility.NeverReturnExpired) // 不退回过期值
                        .build();
                // 初始化状态
                AggregatingStateDescriptor<Map<String, String>, Map<String, String>, Map<String, String>> aggRes = new AggregatingStateDescriptor<>("aggRes", new AggregateFunction<Map<String, String>, Map<String, String>, Map<String, String>>() {
                    @Override
                    public Map<String, String> createAccumulator() {
                        return new HashMap<>();
                    }

                    @Override
                    public Map<String, String> add(Map<String, String> in, Map<String, String> acc) {
                        String amt = acc.get("AMT");
                        if (amt == null) {
                            acc.put("ID", in.get("ID"));
                            acc.put("AMT", in.get("AMT"));
                        } else {
                            acc.put("AMT", Integer.valueOf(in.get("AMT")) + Integer.valueOf(amt) + "");
                        }
                        return acc;
                    }

                    @Override
                    public Map<String, String> getResult(Map<String, String> acc) {
                        return acc;
                    }

                    @Override
                    public Map<String, String> merge(Map<String, String> a, Map<String, String> b) {
                        return null;
                    }
                }, TypeInformation.of(new TypeHint<Map<String, String>>() {
                }));
                aggRes.enableTimeToLive(ttlConfig);
                aggState = getRuntimeContext().getAggregatingState(aggRes);
            }

            @Override
            public void processElement(Map<String, String> value, KeyedProcessFunction<String, Map<String, String>, Map<String, String>>.Context ctx, Collector<Map<String, String>> out) throws Exception {
                aggState.add(value);
                out.collect(aggState.get());
            }
        });

5. 打印聚合结果
c 复制代码
        process.map((MapFunction<Map<String, String>, Object>) value -> {
            System.out.println("聚合结果:" + value);
            return null;
        });

6. 执行作业
c 复制代码
        env.execute("Flink Common State Test");

7. 执行结果
c 复制代码
------
生产数据:{AMT=1, ID=2}
聚合结果:{AMT=1, ID=2}
------
生产数据:{AMT=1, ID=3}
聚合结果:{AMT=1, ID=3}
------
生产数据:{AMT=1, ID=3}
聚合结果:{AMT=2, ID=3}
------
生产数据:{AMT=1, ID=1}
聚合结果:{AMT=1, ID=1}
------
生产数据:{AMT=1, ID=1}
聚合结果:{AMT=2, ID=1}
------
生产数据:{AMT=1, ID=1}
聚合结果:{AMT=3, ID=1}
...

这段代码实现了一个 Flink 作业,生成随机数据并对数据进行状态聚合处理。其中包括数据源生成、按键分区、状态初始化、元素聚合处理和结果输出。可以作为多场景下通用的实时数据处理模型。

相关推荐
码路飞4 小时前
GPT-5.3 Instant 终于学会好好说话了,顺手对比了下同天发布的 Gemini 3.1 Flash-Lite
java·javascript
SimonKing4 小时前
OpenCode AI编程助手如何添加Skills,优化项目!
java·后端·程序员
Seven976 小时前
剑指offer-80、⼆叉树中和为某⼀值的路径(二)
java
怒放吧德德17 小时前
Netty 4.2 入门指南:从概念到第一个程序
java·后端·netty
雨中飘荡的记忆19 小时前
大流量下库存扣减的数据库瓶颈:Redis分片缓存解决方案
java·redis·后端
心之语歌21 小时前
基于注解+拦截器的API动态路由实现方案
java·后端
华仔啊1 天前
Stream 代码越写越难看?JDFrame 让 Java 逻辑回归优雅
java·后端
ray_liang1 天前
用六边形架构与整洁架构对比是伪命题?
java·架构
Ray Liang1 天前
用六边形架构与整洁架构对比是伪命题?
java·python·c#·架构设计
Java水解1 天前
Java 中间件:Dubbo 服务降级(Mock 机制)
java·后端