在Web UI上提交Flink作业

1)任务打包完成后,我们打开Flink的WEB UI页面,在右侧导航栏点击"Submit New Job",然后点击按钮"+ Add New",选择要上传运行的JAR包

JAR包上传完成,如下图所示

(2)点击该JAR包,出现任务配置页面,进行相应配置

主要配置程序入口主类的全类名,任务运行的并行度,任务运行所需的配置参数和保存点路径等,如下图所示,配置完成后,即可点击按钮"Submit",将任务提交到集群运行。

(3)任务提交成功之后,可点击左侧导航栏的"Running Jobs"查看程序运行列表情况。

(4)快速找到打印的节点

相关推荐
BD_Marathon5 小时前
【Flink】部署模式
java·数据库·flink
技术与健康6 小时前
LLM实践系列:利用LLM重构数据科学流程03- LLM驱动的数据探索与清洗
大数据·人工智能·重构
TDengine (老段)7 小时前
TDengine IDMP 应用场景:工业锅炉监控
大数据·数据库·物联网·信息可视化·时序数据库·tdengine
软件开发明哥8 小时前
BigData大数据应用开发学习笔记(06)实时检索--HBase
大数据
杨荧9 小时前
基于Python的农作物病虫害防治网站 Python+Django+Vue.js
大数据·前端·vue.js·爬虫·python
卖寂寞的小男孩11 小时前
spark数据缓存机制
大数据·缓存·spark
jiedaodezhuti12 小时前
Flink直接缓冲存储器异常解析与解决方案
大数据·flink
代码的余温13 小时前
Elasticsearch Master选举机制解析
大数据·elasticsearch·搜索引擎
计算机源码社13 小时前
计算机毕设选题推荐 基于Spark的家庭能源消耗智能分析与可视化系统 基于机器学习的家庭能源消耗预测与可视化系统源码
大数据·机器学习·数据分析·spark·毕业设计·课程设计·毕业设计源码
IT研究室14 小时前
大数据毕业设计选题推荐-基于大数据的北京市医保药品数据分析系统-Spark-Hadoop-Bigdata
大数据·hadoop·spark·毕业设计·源码·数据可视化