Hive-定时清理无用的临时表

背景:

有一个临时库,大家平时开发过程中比较常用,这个库的表的生命周期没有得到很好的管理,日积月累导致无用表增多,所以跟运维提了个方案,定期清理。提出了一个比较简单的方案。

解决方案:

show u the code

表规范如下

表名称:temp_xxxx(邮箱前缀)_xxxxx(自由发挥,不建议太长)_expyyyyMMdd(过期日期20241126)

清理规则如下

  1. 不符合上述规范的表直接清理或者rename
  2. 超过表的过期时间的清理或者rename

实现方案:

方案一:

这个版本的属于最常规的思路,如果清理的无用表较多的时候可能性能会稍微低些。

bash 复制代码
#!/bin/bash

# Hive 配置
HIVE_DB="cusc_tmp_tmp_test_bd"
BEELINE_CMD="beeline"
BEELINE_URL="jdbc:hive2://<hive_server_host>:<hive_server_port>"
BEELINE_USER="<your_username>"
BEELINE_PASSWORD="<your_password>"

# 获取当前日期
CURRENT_DATE=$(date +%Y%m%d)

# 获取所有表名
TABLES=$($BEELINE_CMD -u "${BEELINE_URL}" -n "${BEELINE_USER}" -p "${BEELINE_PASSWORD}" --silent=true --showHeader=false -e "SHOW TABLES IN ${HIVE_DB};")

# 正则表达式匹配表名格式
VALID_PATTERN="^temp_[^_]+_[^_]+_exp([0-9]{8})$"

# 遍历所有表
for TABLE in $TABLES; do
    if [[ $TABLE =~ $VALID_PATTERN ]]; then
        # 提取过期日期
        EXP_DATE=${BASH_REMATCH[1]}
        
        # 检查是否过期
        if [[ $CURRENT_DATE -gt $EXP_DATE ]]; then
            echo "Deleting expired table: ${TABLE}"
            $BEELINE_CMD -u "${BEELINE_URL}" -n "${BEELINE_USER}" -p "${BEELINE_PASSWORD}" --silent=true --showHeader=false -e "DROP TABLE IF EXISTS ${HIVE_DB}.${TABLE};"
        fi
    else
        # 删除不符合规范的表
        echo "Deleting invalid table: ${TABLE}"
        $BEELINE_CMD -u "${BEELINE_URL}" -n "${BEELINE_USER}" -p "${BEELINE_PASSWORD}" --silent=true --showHeader=false -e "DROP TABLE IF EXISTS ${HIVE_DB}.${TABLE};"
    fi
done

echo " cleanup completed."

ps:上面的方案我是用的是beeline是因为集群直接使用hive -e 出来的表名很不规整。条件允许的可以直接用hive -e

对性能有要求的同学可能发现了,每次都要起一次beeline 客户端。效率堪忧。所以给出一个优化的方案。

方案二:

bash 复制代码
#!/bin/bash

# Hive 配置
HIVE_DB="cusc_tmp_tmp_test_bd"
BEELINE_CMD="beeline"
BEELINE_URL="jdbc:hive2://<hive_server_host>:<hive_server_port>"
BEELINE_USER="<your_username>"
BEELINE_PASSWORD="<your_password>"

# 获取当前日期
CURRENT_DATE=$(date +%Y%m%d)

# 准备SQL脚本
SQL_SCRIPT="/tmp/cleanup_tables.sql"

# 初始化SQL脚本
echo "USE ${HIVE_DB};" > "${SQL_SCRIPT}"

# 获取所有表名
TABLES=$($BEELINE_CMD -u "${BEELINE_URL}" -n "${BEELINE_USER}" -p "${BEELINE_PASSWORD}" --silent=true --showHeader=false -e "SHOW TABLES IN ${HIVE_DB};")

# 正则表达式匹配表名格式
VALID_PATTERN="^temp_[^_]+_[^_]+_exp([0-9]{8})$"

# 遍历所有表
for TABLE in $TABLES; do
    if [[ $TABLE =~ $VALID_PATTERN ]]; then
        # 提取过期日期
        EXP_DATE=${BASH_REMATCH[1]}
        
        # 检查是否过期
        if [[ $CURRENT_DATE -gt $EXP_DATE ]]; then
            echo "DROP TABLE IF EXISTS ${TABLE};" >> "${SQL_SCRIPT}"
            echo "Marked for deletion: ${TABLE}"
        fi
    else
        # 删除不符合规范的表
        echo "DROP TABLE IF EXISTS ${TABLE};" >> "${SQL_SCRIPT}"
        echo "Marked for deletion (invalid name): ${TABLE}"
    fi
done

# 执行SQL脚本
$BEELINE_CMD -u "${BEELINE_URL}" -n "${BEELINE_USER}" -p "${BEELINE_PASSWORD}" --silent=true --showHeader=false -f "${SQL_SCRIPT}"

# 清理临时SQL文件
rm -f "${SQL_SCRIPT}"

echo "cleanup completed."
  1. 方案二把需要清理的表放到了一个文件里,然后直接一次性执行一个清理语句。减少了交互,提升了效率

总结:

方案比较简单粗暴,如果想要友好一些的,可以做rename处理,比如把表名加上trash,或者把每日待删除的表先发一个邮件给到开发的小伙伴,确认无误之后再最物理删除。具体情况根据团队的实际情况来定即可。

相关推荐
A 计算机毕业设计-小途6 小时前
大四零基础用Vue+ElementUI一周做完化妆品推荐系统?
java·大数据·hadoop·python·spark·毕业设计·毕设
君不见,青丝成雪11 小时前
Flink双流join
大数据·数据仓库·flink
超级迅猛龙15 小时前
保姆级Debezium抽取SQL Server同步kafka
数据库·hadoop·mysql·sqlserver·kafka·linq·cdc
青云交16 小时前
Java 大视界 -- Java 大数据分布式计算在基因测序数据分析与精准医疗中的应用(400)
java·hadoop·spark·分布式计算·基因测序·java 大数据·精准医疗
Lx35220 小时前
Hadoop小文件处理难题:合并与优化的最佳实践
大数据·hadoop
君不见,青丝成雪1 天前
Hadoop技术栈(四)HIVE常用函数汇总
大数据·数据库·数据仓库·hive·sql
最初的↘那颗心1 天前
Flink Stream API 源码走读 - print()
java·大数据·hadoop·flink·实时计算
君不见,青丝成雪1 天前
hadoop技术栈(九)Hbase替代方案
大数据·hadoop·hbase
晴天彩虹雨2 天前
存算分离与云原生:数据平台的新基石
大数据·hadoop·云原生·spark
yatingliu20192 天前
HiveQL | 个人学习笔记
hive·笔记·sql·学习