获取Flink作业在HDFS上保存的最新的savepoint文件路径

获取Flink作业在HDFS上保存的最新的savepoint文件路径

代码:

c 复制代码
savepoint=$(hadoop fs -ls hdfs://xxxApp/flink-checkpoints/xxxflinkjob/*/chk-*/_metadata |grep -vw Found |sort -k6,7 -r |head -n 1 |awk '{print $8}')
    

上面的代码是一个Shell命令,用于获取Flink作业在HDFS上保存的最新的savepoint文件路径。让我们逐步解释这段代码:

  1. savepoint=$(...) :这是一个Shell变量赋值语句,将命令的输出赋值给变量 savepoint 。
  2. hadoop fs -ls hdfs://xxxApp/flink-checkpoints/xxxflinkjob//chk- /_metadata :这部分命令使用 hadoop fs -ls 列出指定HDFS路径下的文件和目录,路径为 hdfs://xxxApp/flink-checkpoints/xxxflinkjob//chk-/_metadata 。这个路径通常是Flink作业的检查点目录,其中包含savepoint文件的元数据信息。
  3. grep -vw Found : grep 命令用于过滤输出, -v 选项表示显示不匹配的行, -w 选项表示精确匹配整个单词。这里过滤掉包含"Found"的行。
  4. sort -k6,7 -r : sort 命令按照第6和第7列的内容进行逆序排序,以便找到最新的savepoint文件。
  5. head -n 1 : head 命令用于显示输出的前n行,这里只显示排序后的第一行,即最新的savepoint文件。
  6. awk '{print $8}' : awk 命令用于处理文本数据,这里提取排序后结果的第8列,即最新的savepoint文件的路径。

综合起来,这段代码的作用是获取Flink作业在HDFS上保存的最新savepoint文件的路径,并将路径赋值给变量 savepoint 。

相关推荐
yumgpkpm1 小时前
银行智能数据平台在Cloudera CDH6\CDP 7\CMP 7平台下的具体使用配置流程
大数据·hive·hadoop·数据挖掘·flink·spark·cloudera
Francek Chen18 小时前
【大数据基础】大数据处理架构Hadoop:02 Hadoop生态系统
大数据·hadoop·分布式·hdfs·架构
德彪稳坐倒骑驴18 小时前
DataX将数据在MySQL和HDFS之间互相迁移
数据库·mysql·hdfs
康王有点困19 小时前
Link入门
后端·flink
摇滚侠19 小时前
Node.js 零基础教程,Node.js 和 NPM 的安装与使用
前端·npm·node.js
Knight_AL20 小时前
RabbitMQ + Flink 为什么必然会重复?以及如何用 seq 做稳定去重
flink·rabbitmq·ruby
康王有点困21 小时前
Flink简单使用
大数据·flink
查士丁尼·绵1 天前
hadoop集群存算分离
hive·hdfs·zookeeper·spark·hbase·yarn·galera
ghgxm5202 天前
Fastapi_00_学习策略与学习计划
python·学习·前端框架·npm·fastapi
Hello.Reader2 天前
Flink OpenSearch SQL Connector Append/Upsert、动态索引、Exactly-Once 与性能调参
大数据·sql·flink