Flink本地idea运行环境配置webui

Flink本地idea运行环境配置webui

1.添加依赖
c 复制代码
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-runtime-web_2.11</artifactId>
            <version>1.13.6</version>
            <scope>provided</scope>
        </dependency>
2. 代码如下
c 复制代码
public class FlinkWithLocalWebui {
    public static void main(String[] args) throws Exception {
        Configuration conf = new Configuration();
        conf.setString(RestOptions.BIND_PORT, "8081"); // 设置WebUI端口为8081
        StreamExecutionEnvironment env = StreamExecutionEnvironment.createLocalEnvironmentWithWebUI(conf); // 创建带有WebUI的本地流执行环境
        env.setParallelism(1); // 设置并行度为1
        DataStream<Map<String, String>> stream = env.addSource(new SourceFunction<Map<String, String>>() {
                    @Override
                    public void run(SourceContext<Map<String, String>> ctx) throws Exception {
                        while (true) {
                            HashMap<String, String> hashMap = new HashMap<>();
                            hashMap.put("ID", new Random().nextInt(3) + 1 + ""); // 随机生成ID
                            hashMap.put("AMT", "1"); // 设置AMT为1
                            System.out.println("生产数据:" + hashMap); // 打印生产的数据
                            ctx.collect(hashMap); // 发射数据
                            Thread.sleep(1000); // 每隔1秒发送一次数据
                        }
                    }

                    @Override
                    public void cancel() {
                    }
                })
                // 按照ID字段进行分区
                .keyBy(new KeySelector<Map<String, String>, String>() {
                    @Override
                    public String getKey(Map<String, String> value) throws Exception {
                        return value.get("ID");
                    }
                })
                // 对AMT字段进行累加
                .reduce(new ReduceFunction<Map<String, String>>() {
                    @Override
                    public Map<String, String> reduce(Map<String, String> value1, Map<String, String> value2) throws Exception {
                        HashMap<String, String> hashMap = new HashMap<>();
                        hashMap.put("ID", value1.get("ID"));
                        hashMap.put("AMT", Integer.valueOf(value1.get("AMT")) + Integer.valueOf(value2.get("AMT")) + "");
                        return hashMap;
                    }
                });
        // 输出数据流
        stream.print();
        // 执行作业并指定作业名称
        env.execute("job-" + FlinkWithLocalWebui.class.getSimpleName());
    }
}
//这段代码是一个基于Apache Flink的实时数据处理程序。
//程序创建了一个带有WebUI的本地流执行环境,设置了并行度为1。
//通过自定义的SourceFunction生成随机数据流,数据包含ID和AMT字段,每秒发送一次数据。
//然后对数据流按照ID字段进行分区,并对AMT字段进行累加操作。
//最后,将处理后的数据流打印输出,并执行作业。
//整体流程是一个简单的实时数据处理流水线,用于生成、处理和输出数据流。
3. 执行结果:
c 复制代码
生产数据:{AMT=1, ID=3}
{AMT=1, ID=3}
生产数据:{AMT=1, ID=1}
{AMT=1, ID=1}
生产数据:{AMT=1, ID=2}
{AMT=1, ID=2}
...
生产数据:{AMT=1, ID=2}
{AMT=9, ID=2}
生产数据:{AMT=1, ID=3}
{AMT=13, ID=3}
生产数据:{AMT=1, ID=3}
...
4. 访问Webui,截图如下:

地址:http://localhost:8081/#/overview

相关推荐
choke2331 分钟前
[特殊字符] Python 文件与路径操作
java·前端·javascript
choke2336 分钟前
Python 基础语法精讲:数据类型、运算符与输入输出
java·linux·服务器
岁岁种桃花儿17 分钟前
CentOS7 彻底卸载所有JDK/JRE + 重新安装JDK8(实操完整版,解决kafka/jps报错)
java·开发语言·kafka
Hello.Reader43 分钟前
Flink 文件系统通用配置默认文件系统与连接数限制实战
vue.js·flink·npm
roman_日积跬步-终至千里1 小时前
【Java并发】Java 线程池实战:警惕使用CompletableFuture.supplyAsync
java·开发语言·网络
毕设源码-钟学长1 小时前
【开题答辩全过程】以 基于Springboot的扶贫众筹平台为例,包含答辩的问题和答案
java·spring boot·后端
CodeSheep程序羊1 小时前
拼多多春节加班工资曝光,没几个敢给这个数的。
java·c语言·开发语言·c++·python·程序人生·职场和发展
我是咸鱼不闲呀2 小时前
力扣Hot100系列19(Java)——[动态规划]总结(上)(爬楼梯,杨辉三角,打家劫舍,完全平方数,零钱兑换)
java·leetcode·动态规划
加油,小猿猿2 小时前
Java开发日志-双数据库事务问题
java·开发语言·数据库
yuluo_YX2 小时前
Reactive 编程 - Java Reactor
java·python·apache