服务器检测databricks job的运行状态封装

Azure databricks上配置的job 需要传入可变参数,故而我将任务的启动脚本都部署在服务器上。但是任务执行是否成功需要不断获取任务状态才能检测,故而将检测任务的状态进行封装。

封装脚本如下:

azurework:

powershell 复制代码
#! /bin/bash
source /etc/profile
source ~/.bashrc
JQ_EXEC=`which jq`
if [ $# -eq 0 ];
then
    exit
fi
starttime=`date +'%Y-%m-%d %H:%M:%S'`
start_seconds=$(date --date="$starttime" +%s)
jobId=$1
params=$2
echo "azure job Id : ${jobId}"
echo "azure param : ${params}"
job_id=$(databricks jobs run-now --job-id ${jobId} --spark-submit-params "${params}")
run_id=$(echo ${job_id} | ${JQ_EXEC} .run_id | sed 's/\"//g')
echo $run_id
wait_time=7200
for((i=1;i<=10000;i++));
do
   sleep 5s
   echo "databricks runs get --run-id ${run_id}"
   job_info=$(databricks runs get --run-id ${run_id})
   life_cycle_state=$(echo "${job_info}" | jq -r '.state.life_cycle_state')
   endtime=`date +'%Y-%m-%d %H:%M:%S'`
   end_seconds=$(date --date="$endtime" +%s);
   interval=$((end_seconds-start_seconds))
   echo $interval
   echo $life_cycle_state
   if [ "$life_cycle_state" == "TERMINATED" ]; then
      echo "job_info :: $job_info"
      echo "$status excute time = ${interval}s"
      result_state=$(echo "${job_info}" | jq -r '.state.result_state')
      echo $result_state
      if [ "$result_state" == "SUCCESS" ];then
          echo "Job Finish "
          exit 0
      else
          echo "Job Failed"
          exit 1
      fi
   fi
   if [ "$life_cycle_state" == "INTERNAL_ERROR" ]; then
      exit 1
   fi
   if [ "$life_cycle_state" == "SKIPPED" ]; then
      echo "已有任务在运行,此任务被SKIPPED"
      exit 1
   fi
   if [ $interval -ge $wait_time ]; then
        echo "too long time force shutdown"
        exit 1
   fi
   if [ $((i%3)) == 0 ]; then
      echo "RUNNING wait = ${interval}s"
   fi

done

如此以来,执行任务就可以简化为 scriptPath/azurework jobId $params

示例:

powershell 复制代码
#!/bin/sh
source /etc/profile
source ~/.bashrc
if [ $# -eq 1 ];then
  pt=$1
else
  pt=$(date -d "yesterday" +%Y%m%d)
  echo "daily running"
fi
echo "$pt"

jobId=630195968789849
jarPath=dbfs:/FileStore/tables/cdp-1.0.0.jar
scriptPath=/home/eshen2/cdp/bigdata
confPath=dbfs:/FileStore/tables
classPath=org.deloitte.cdp.batch.engine.Job_Combine
cdp=dbw_corp_crm_etl_dev_southeastasia.cdp
tags_daily_table=tags_daily
tags_history_table=tags_history
tags_routine_table=tags_routine
id_access_table=id_access
params="[\"--class\",\"$classPath\",\"$jarPath\",\"--date\",\"${pt}\",\"--cdp\",\"$cdp\",\"--entity\",\"obj\",\"--tags_daily_table\",\"$tags_daily_table\",\"--tags_history_table\",\"$tags_history_table\",\"--tags_routine_table\",\"$tags_routine_table\",\"--id_access_table\",\"$id_access_table\",\"--confPath\",\"$confPath\"]"
echo $params

$scriptPath/azurework $jobId  $params
相关推荐
TPBoreas14 小时前
服务器CPU过高问题排查思路
运维·服务器
信创天地14 小时前
信创环境下CI/CD与灾备体系构建:从异构挑战到自主可控的运维革命
运维·ci/cd
h7ml14 小时前
企业微信外部联系人同步中的数据一致性与最终一致性保障
运维·服务器·企业微信
love530love14 小时前
EPGF 新手教程 04一个项目一个环境:PyCharm 是如何帮你“自动隔离”的?(全 GUI,新手零命令)
运维·开发语言·ide·人工智能·python·pycharm
默|笙14 小时前
【Linux】进程控制(4)自主shell命令行解释器
linux·运维·chrome
艾莉丝努力练剑14 小时前
【QT】初识QT:背景介绍
java·运维·数据库·人工智能·qt·安全·gui
HABuo14 小时前
【Linux进程(二)】操作系统&Linux的进程状态深入剖析
linux·运维·服务器·c语言·c++·ubuntu·centos
阿巴~阿巴~14 小时前
TCP可靠传输双引擎:确认应答与超时重传的精妙协同
运维·服务器·网络·网络协议·tcp·超时重传·确认应答
熊猫钓鱼>_>14 小时前
对话式部署实践:从零开始使用TRAE SOLO构建自动化CI/CD Pipeline
运维·ci/cd·自动化·devops·trae·solo·trae solo