Flink 命令行提交、展示和取消作业

Apache Flink 是一个流处理和批处理的开源框架,用于在分布式环境中执行无边界和有边界的数据流。你可以使用 Flink 的命令行界面(CLI)来提交、展示和取消作业。

提交作业

使用 Flink CLI 提交作业的命令格式通常如下:

bash 复制代码
./bin/flink run -m <jobmanager_host>:<jobmanager_port> -c <entrypoint_class> <jar_file_path> <arguments>
  • -m <jobmanager_host>:<jobmanager_port>:指定 JobManager 的地址和端口。
  • -c <entrypoint_class>:指定 JAR 文件中包含作业入口点的类。
  • <jar_file_path>:要提交的 JAR 文件的路径。
  • <arguments>:传递给作业的任何可选参数。

例如:

bash 复制代码
./bin/flink run -m localhost:6123 -c com.example.MyFlinkJob /path/to/my-flink-job.jar --input /path/to/input --output /path/to/output

展示作业

要查看 Flink 集群上正在运行的作业,你可以使用 Flink 的 Web UI。默认情况下,Web UI 可以在 JobManager 的 8081 端口上访问(例如,http://localhost:8081/)。在 Web UI 上,你可以看到所有正在运行的作业、它们的任务、以及相关的性能指标。

另外,你也可以使用 Flink CLI 的 list 命令来列出正在运行的作业:

bash 复制代码
./bin/flink list -m <jobmanager_host>:<jobmanager_port>

取消作业

要取消 Flink 集群上正在运行的作业,你可以使用 Flink CLI 的 cancel 命令,并指定作业的 ID:

bash 复制代码
./bin/flink cancel -m <jobmanager_host>:<jobmanager_port> <job_id>

其中 <job_id> 是你想要取消的作业的 ID。你可以通过 Flink Web UI 或 list 命令来获取作业的 ID。

例如:

bash 复制代码
./bin/flink cancel -m localhost:6123 00000000000000000000000000000000

注意:你需要确保你有足够的权限来提交、展示和取消作业。在某些环境中,可能需要特定的身份验证或授权。

相关推荐
武子康10 小时前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
字节跳动数据平台1 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康2 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台2 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术2 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
大大大大晴天2 天前
Flink生产问题排障-HBase NotServingRegionException
flink·hbase
武子康2 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康3 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天3 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康5 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive