Shell 获取Hive表的location 信息

用shell 获取建表语句:

bash 复制代码
hive -e "show create table ods_job.ods_job_tb"

得到结果:

bash 复制代码
CREATE TABLE `ods_job.ods_job_tb`(
  `id` bigint COMMENT 'id', 
  `auto` int COMMENT 'job开启/关闭:0-关闭;1-开启', 
 ....
  `timeout_kill` string COMMENT '是否超时kill')
COMMENT 'job表'
PARTITIONED BY ( 
  `d` string COMMENT '日期分区字段')
ROW FORMAT SERDE 
  'org.apache.hadoop.hive.serde2.columnar.ColumnarSerDe' 
STORED AS INPUTFORMAT 
  'org.apache.hadoop.hive.ql.io.RCFileInputFormat' 
OUTPUTFORMAT 
  'org.apache.hadoop.hive.ql.io.RCFileOutputFormat'
LOCATION
  'hdfs://ns/user/hive/warehouse/job.db/job_tb'
TBLPROPERTIES (
  'last_modified_by'='user', 
  'last_modified_time'='1656303639', 
  'metadata.partition.life'='-1', 
  'metadata.security.level'='Medium', 
  'orc.bloom.filter.columns'='id,visitor_id,auto,owner,group_id', 
  'spark.sql.partitionProvider'='catalog', 
  'transient_lastDdlTime'='1706259083')
Time taken: 1.343 seconds, Fetched: 57 row(s)

想要获取LOCATION 引号里面的值,并实现自动化

bash 复制代码
tardb=$1
tarTblname=$2
stmt=`hive-sql -v -e "use ${tardb}; show create table ${tarTblname};"`
loc=$( expr "${stmt}" : ".*LOCATION...'\([^']*\)" );

echo $loc

方式2, 这种会有点瑕疵,一旦表中有location 字段就有可能会产生bug,而上面就不会出现这种问题

bash 复制代码
#!/bin/bash

# 替换为你的 Hive 表名
table_name="db.table"

# 使用 Hive 命令获取表的详细信息,并通过 grep 筛选出包含 "Location" 的行
location_info=$(hive -e "describe formatted $table_name" | grep "Location")

# 提取出具体的 location 值
location=$(echo $location_info | awk '{print $2}')

echo "表 $table_name 的 location 信息为: $location"

loc变量就是想要的结果,这个shell稍微难写一点的就是里面的正则,还得过滤掉引号。

小记~

相关推荐
一张假钞5 小时前
Spark SQL读写Hive Table部署
hive·sql·spark
想做富婆6 小时前
Hive:窗口函数[ntile, first_value,row_number() ,rank(),dens_rank()]和自定义函数
数据仓库·hive·hadoop
好记性+烂笔头13 小时前
4 Hadoop 面试真题
大数据·hadoop·面试
小白也有IT梦1 天前
Bash 基础与进阶实践指南
linux·bash
B站计算机毕业设计超人1 天前
计算机毕业设计Python+CNN卷积神经网络考研院校推荐系统 考研分数线预测 考研推荐系统 考研爬虫 考研大数据 Hadoop 大数据毕设 机器学习
hadoop·python·机器学习·spark·网络爬虫·课程设计·数据可视化
字节全栈_rJF2 天前
Hive 整合 Spark 全教程 (Hive on Spark)
hive·hadoop·spark
好记性+烂笔头2 天前
2 MapReduce
大数据·hadoop·mapreduce
字节全栈_ZKt2 天前
Hadoop集群中Hbase的介绍、安装、使用_root@master001 hadoop]# start-hbase
大数据·hadoop·hbase
一张假钞2 天前
Sqoop源码修改:增加落地HDFS文件数与MapTask数量一致性检查
java·hadoop·hdfs·sqoop
weixin_307779132 天前
设计转换Apache Hive的HQL语句为Snowflake SQL语句的Python程序方法
数据仓库·hive·python·sql