获取Flink作业在HDFS上保存的最新的savepoint文件路径

获取Flink作业在HDFS上保存的最新的savepoint文件路径

代码:

c 复制代码
savepoint=$(hadoop fs -ls hdfs://xxxApp/flink-checkpoints/xxxflinkjob/*/chk-*/_metadata |grep -vw Found |sort -k6,7 -r |head -n 1 |awk '{print $8}')
    

上面的代码是一个Shell命令,用于获取Flink作业在HDFS上保存的最新的savepoint文件路径。让我们逐步解释这段代码:

  1. savepoint=$(...) :这是一个Shell变量赋值语句,将命令的输出赋值给变量 savepoint 。
  2. hadoop fs -ls hdfs://xxxApp/flink-checkpoints/xxxflinkjob//chk- /_metadata :这部分命令使用 hadoop fs -ls 列出指定HDFS路径下的文件和目录,路径为 hdfs://xxxApp/flink-checkpoints/xxxflinkjob//chk-/_metadata 。这个路径通常是Flink作业的检查点目录,其中包含savepoint文件的元数据信息。
  3. grep -vw Found : grep 命令用于过滤输出, -v 选项表示显示不匹配的行, -w 选项表示精确匹配整个单词。这里过滤掉包含"Found"的行。
  4. sort -k6,7 -r : sort 命令按照第6和第7列的内容进行逆序排序,以便找到最新的savepoint文件。
  5. head -n 1 : head 命令用于显示输出的前n行,这里只显示排序后的第一行,即最新的savepoint文件。
  6. awk '{print $8}' : awk 命令用于处理文本数据,这里提取排序后结果的第8列,即最新的savepoint文件的路径。

综合起来,这段代码的作用是获取Flink作业在HDFS上保存的最新savepoint文件的路径,并将路径赋值给变量 savepoint 。

相关推荐
Leisureconfused2 天前
【记录】Node版本兼容性问题及解决
前端·vue.js·npm·node.js
海南java第二人2 天前
Flink架构的核心组件:Task、Job、TaskManager与JobManager
flink
海南java第二人2 天前
Flink 核心概念深度解析:从字符串大小写转换看 Job 与 Task 的本质区别
大数据·flink
橘子编程2 天前
Flink从入门到精通:全面实战指南
大数据·flink
DolphinScheduler社区2 天前
第 8 篇|Apache DolphinScheduler 与 Flink Spark 数据引擎的边界、协同与最佳实践
大数据·flink·spark·开源·apache·海豚调度·大数据工作流调度
csgo打的菜又爱玩2 天前
1.JobManager启动流程解析.md
大数据·flink·源代码管理
蓝魔Y3 天前
Flink CDC—数据同步
flink
juniperhan3 天前
Flink 系列第10篇:Flink 分布式缓存详解
分布式·缓存·flink
We་ct3 天前
前端包管理工具与Monorepo全面解析
前端·javascript·npm·pnpm·yarn·monorepo·包管理
李昊哲小课3 天前
安装 npm/pnpm/yarn 换国内镜像 统一目录管理全局包+缓存
前端·缓存·npm·pnpm·yarn