flink终止提交给yarn的任务

接上文:一文说清flink从编码到部署上线

访问地址(参考):http://10.86.97.191:8099/cluster/apps

2.终止任务

powershell 复制代码
yarn application -kill appID
本文为:
yarn application -kill application_1733494458758_0001

出现下面日志,说明终止成功:

查看yarn控制台,状态为"KILLED"。

常用命令:

powershell 复制代码
echo "=============查询所有任务============="
yarn application -list
 
echo "=============停止待提交的任务============="
yarn application -list | grep "ACCEPTED" | awk '{print $1}' | grep -v 'ApplicationId' | xargs -I {} sh -c 'if [ "{}" != "Total" ]; then yarn application -kill {}; fi'
 
echo "=============停止正在运行的任务============="
yarn application -list | grep "RUNNING" | awk '{print $1}' | grep -v 'ApplicationId' | xargs -I {} sh -c 'if [ "{}" != "Total" ]; then yarn application -kill {}; fi'
相关推荐
北邮-吴怀玉13 小时前
6.1.1.3 大数据方法论与实践指南-SparkStreaming 任务优化实践
大数据·flink·spark·数据治理
wudl556618 小时前
Flink Keyed State 详解之四
大数据·flink
北邮-吴怀玉19 小时前
6.1.1.1 大数据方法论与实践指南-Spark/Flink 任务开发规范
大数据·flink·spark
顧棟19 小时前
【Flink实战】升级HDFS,对Flink SQL(On Yarn模式)的功能兼容性验证
hadoop·flink·1024程序员节
Apache Flink1 天前
理想汽车基于 Hologres + Flink 构建万亿级车联网信号实时分析平台
阿里云·flink·apache
北邮-吴怀玉2 天前
6.1.1.2 大数据方法论与实践指南-实时任务(spark/flink)任务的 cicd 解决方案
大数据·flink·spark
wudl55662 天前
Apache Flink Keyed State 详解之一
算法·flink·apache
snowful world2 天前
flink实验三:实时数据流处理(踩坑记录)
大数据·flink
程序员小羊!3 天前
Flink状态编程之算子状态(OperatorState)
大数据·flink