获取Flink作业在HDFS上保存的最新的savepoint文件路径

获取Flink作业在HDFS上保存的最新的savepoint文件路径

代码:

c 复制代码
savepoint=$(hadoop fs -ls hdfs://xxxApp/flink-checkpoints/xxxflinkjob/*/chk-*/_metadata |grep -vw Found |sort -k6,7 -r |head -n 1 |awk '{print $8}')
    

上面的代码是一个Shell命令,用于获取Flink作业在HDFS上保存的最新的savepoint文件路径。让我们逐步解释这段代码:

  1. savepoint=$(...) :这是一个Shell变量赋值语句,将命令的输出赋值给变量 savepoint 。
  2. hadoop fs -ls hdfs://xxxApp/flink-checkpoints/xxxflinkjob//chk- /_metadata :这部分命令使用 hadoop fs -ls 列出指定HDFS路径下的文件和目录,路径为 hdfs://xxxApp/flink-checkpoints/xxxflinkjob//chk-/_metadata 。这个路径通常是Flink作业的检查点目录,其中包含savepoint文件的元数据信息。
  3. grep -vw Found : grep 命令用于过滤输出, -v 选项表示显示不匹配的行, -w 选项表示精确匹配整个单词。这里过滤掉包含"Found"的行。
  4. sort -k6,7 -r : sort 命令按照第6和第7列的内容进行逆序排序,以便找到最新的savepoint文件。
  5. head -n 1 : head 命令用于显示输出的前n行,这里只显示排序后的第一行,即最新的savepoint文件。
  6. awk '{print $8}' : awk 命令用于处理文本数据,这里提取排序后结果的第8列,即最新的savepoint文件的路径。

综合起来,这段代码的作用是获取Flink作业在HDFS上保存的最新savepoint文件的路径,并将路径赋值给变量 savepoint 。

相关推荐
不倒翁玩偶8 小时前
npm : 无法将“npm”项识别为 cmdlet、函数、脚本文件或可运行程序的名称。请检查名称的拼写,如果包括路径,请确保路径正确,然后再试一次。
前端·npm·node.js
华农DrLai10 小时前
Spark SQL Catalyst 优化器详解
大数据·hive·sql·flink·spark
岁岁种桃花儿10 小时前
Flink从入门到上天系列第一篇:搭建第一个Flink程序
大数据·linux·flink·数据同步
Hello.Reader19 小时前
Flink ZooKeeper HA 实战原理、必配项、Kerberos、安全与稳定性调优
安全·zookeeper·flink
Hello.Reader1 天前
Flink 使用 Amazon S3 读写、Checkpoint、插件选择与性能优化
大数据·flink
Hello.Reader1 天前
Flink 对接 Google Cloud Storage(GCS)读写、Checkpoint、插件安装与生产配置指南
大数据·flink
Hello.Reader1 天前
Flink Kubernetes HA(高可用)实战原理、前置条件、配置项与数据保留机制
贪心算法·flink·kubernetes
wending-Y1 天前
记录一次排查Flink一直重启的问题
大数据·flink
Hello.Reader1 天前
Flink 对接 Azure Blob Storage / ADLS Gen2:wasb:// 与 abfs://(读写、Checkpoint、插件与认证)
flink·flask·azure