查询hive指定数据库下所有表的建表语句并生成数据字典

功能:查询hive指定数据库下所有表的建表语句并生成数据字典

处理前:

复制代码
| CREATE TABLE `test_db.customer`(                                    |
|   `c_name` string COMMENT '姓名',                                   |
|   `c_gender` string COMMENT '性别',                                 |
|   `c_type` string COMMENT '证件类型')                               |
| ROW FORMAT SERDE                                                    |
|   'org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe'     |
| WITH SERDEPROPERTIES (                                              |
|   'field.delim'='|',                                                |
|   'serialization.format'='|')                                       |
| STORED AS INPUTFORMAT                                               |
|   'org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat'   |
| OUTPUTFORMAT                                                        |
|   'org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat'  |
| LOCATION                                                            |
|   'hdfs://hacluster/user/hive/warehouse/test_db.db/customer'        |
| TBLPROPERTIES (                                                     |
|   'bucketing_version'='2',                                          |
|   'parquet.compression'='gzip',                                     |
|   'transient_lastDdlTime'='1735109698')                             |
| ;

处理后:生成数据字段如下

复制代码
属主    表名    字段名  字段类型        字段注释        是否外表        是否分区字段
test_db customer        c_name  string  姓名    否      否
test_db customer        c_gender        string  性别    否      否
test_db customer        c_type  string  证件类型        否      否

处理步骤及代码逻辑如下:

  1. 查询hive指定数据库下所有表的建表语句

    cat hive_ddl.sh
    #!/bin/bash

    ********************************************

    file_name: hive_ddl.sh

    Func:查询hive指定数据库下所有表的建表语句

    Author: wx.yangpg

    create_date: 2025-02-01

    modify_info:

    version : V1.0

    execution:sh hive_ddl.sh

    ********************************************

    #加载环境
    source ~/.bash_profile

    #数据库名可通过传参的方式来执行
    dbname=1 #查询出该数据库下所有的表,并写入配置文件 beeline --silent=true -e "show tables in {dbname}" | grep '|' > show_tables.txt
    sed -i 's/|//g' show_tables.txt
    sed -i 's/ //g' show_tables.txt

    #保存hive的建表语句
    [ -e create_table.txt ] && rm create_table.txt

    #遍历配置文件,查询建表语句
    for table in awk 'NR>1' show_tables.txt
    do
    beeline --silent=true -e "show create table {dbname}.{table}" >> create_table.txt
    echo '| ;' >> create_table.txt
    done

    #初步处理建表语句
    cat create_table.txt | grep '|' | grep -v 'createtab_stmt' > create_table2.txt

  2. 执行shell命令,查看生成的建表语句

    #执行shell命令
    sh hive_ddl.sh test_db

    #查看生成的建表语句
    head create_table2.txt
    | CREATE TABLE test_db.customer( |
    | c_name string COMMENT '姓名', |
    | c_gender string COMMENT '性别', |
    | c_type string COMMENT '证件类型') |
    | ROW FORMAT SERDE |
    | 'org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe' |
    | WITH SERDEPROPERTIES ( |
    | 'field.delim'='|', |
    | 'serialization.format'='|') |
    | STORED AS INPUTFORMAT |

  3. 使用java处理建表语句,代码逻辑如下

    package com.ods.sqoop.common;

    import java.io.*;

    public class DealHiveDDL {
    public static void main(String[] args) throws Exception {
    FileInputStream fileInputStream = new FileInputStream(args[0]);
    InputStreamReader inputStreamReader = new InputStreamReader(fileInputStream);
    BufferedReader bufferedReader = new BufferedReader(inputStreamReader);

    复制代码
         BufferedWriter bufferedWriter = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(args[1])));
         String line;
         String owner = "";
         String tablename = "";
         String column_name = "";
         String data_type = "";
         String comments = "";
         //是否外表标识
         String is_external = "否";
         //是否分区表标识
         String is_partition = "否";
         StringBuilder sb = new StringBuilder();
         while ((line = bufferedReader.readLine()) != null) {
             //获取数据库名,表名,是否外表标识
             if (line.startsWith("| CREATE")) {
                 if (line.indexOf("EXTERNAL") > 0) {
                     owner = line.split("\\s+")[4].split("\\.")[0];
                     tablename = line.split("\\s+")[4].split("\\.")[1];
                     is_external = "是";
                 } else {
                     owner = line.split("\\s+")[3].split("\\.")[0];
                     tablename = line.split("\\s+")[3].split("\\.")[1];
                 }
             } else if (line.startsWith("| PARTITIONED")) { //获取是否分区字段
                 is_partition = "是";
             } else if (line.startsWith("|   `")) { //获取字段名,字段类型,字段注释
                 column_name = line.split("\\s+")[1];
                 data_type = line.split("\\s+")[2];
                 if (line.indexOf("COMMENT") > 0) {
                     comments = line.split("\\s+")[4];
                 }
                 //owner tablename column_name data_type comments is_external is_partition
                 sb.append(owner).append("\t")
                         .append(tablename).append("\t")
                         .append(column_name).append("\t")
                         .append(data_type).append("\t")
                         .append(comments).append("\t")
                         .append(is_external).append("\t")
                         .append(is_partition).append("\t").append("\n");
             }
         }
         String replacement = sb.toString().replaceAll("`","")
                 .replaceAll("\\(","")
                 .replaceAll("\\)","")
                 .replaceAll("\\'","")
                 .replaceAll("\\,", "");
         String result = "属主\t表名\t字段名\t字段类型\t字段注释\t是否外表\t是否分区字段\n" + replacement;
         bufferedWriter.write(result);
         bufferedReader.close();
         bufferedWriter.close();
     }

    }

  4. 执行jar包生成最终需要的数据字典

    #执行jar包
    java -cp ods_etl.jar com.tpiods.sqoop.common.DealHiveDDL create_table2.txt result2.txt

    #查看最终生成的数据字典
    head result2.txt
    属主 表名 字段名 字段类型 字段注释 是否外表 是否分区字段
    test_db customer c_name string 姓名 否 否
    test_db customer c_gender string 性别 否 否
    test_db customer c_type string 证件类型 否 否

相关推荐
AAA修煤气灶刘哥2 小时前
后端人速藏!数据库PD建模避坑指南
数据库·后端·mysql
RestCloud6 小时前
揭秘 CDC 技术:让数据库同步快人一步
数据库·api
得物技术9 小时前
MySQL单表为何别超2000万行?揭秘B+树与16KB页的生死博弈|得物技术
数据库·后端·mysql
Lx35210 小时前
Hadoop容错机制深度解析:保障作业稳定运行
大数据·hadoop
可涵不会debug13 小时前
【IoTDB】时序数据库选型指南:工业大数据场景下的技术突围
数据库·时序数据库
ByteBlossom13 小时前
MySQL 面试场景题之如何处理 BLOB 和CLOB 数据类型?
数据库·mysql·面试
麦兜*13 小时前
MongoDB Atlas 云数据库实战:从零搭建全球多节点集群
java·数据库·spring boot·mongodb·spring·spring cloud
Slaughter信仰13 小时前
深入理解Java虚拟机:JVM高级特性与最佳实践(第3版)第十章知识点问答(10题)
java·jvm·数据库
麦兜*13 小时前
MongoDB 在物联网(IoT)中的应用:海量时序数据处理方案
java·数据库·spring boot·物联网·mongodb·spring