Hive/Spark 整库导出/导入脚本

1. 整库导出为一个SQL文件

bash 复制代码
database="<your-database-name>"

cat << EOF > $database.sql
drop database if exists $database cascade;
create database if not exists $database;
use $database;
EOF

for table in $(beeline -n hadoop -u jdbc:hive2:// --showHeader=false --outputformat=tsv2 -e "use $database; show tables;"); do 
    beeline -n hadoop -u jdbc:hive2:// --showHeader=false --outputformat=tsv2 -e "show create table $database.$table;" >> $database.sql
    echo ";" >> $database.sql
done

2. 从SQL文件导入数据库

bash 复制代码
spark-sql -f /path/to/your-exported-db.sql
相关推荐
BD_Marathon14 小时前
设置hive本地模式
数据仓库·hive·hadoop
Data 31714 小时前
Hive数仓操作(十一)
大数据·数据库·数据仓库·hive·hadoop
Data 31717 小时前
Hive数仓操作(九)
大数据·数据仓库·hive·hadoop
晚睡早起₍˄·͈༝·͈˄*₎◞ ̑̑17 小时前
JavaWeb(二)
java·数据仓库·hive·hadoop·maven
Data 31721 小时前
Hive数仓操作(三)
大数据·数据库·数据仓库·hive·hadoop
鸿乃江边鸟1 天前
Spark SQL中怎么注册python以及使用python注册的UDF中数据流是怎么流转的
python·sql·spark
Data 3171 天前
Hive数仓操作(十四)
大数据·数据库·数据仓库·hive·hadoop
Data 3171 天前
Hive数仓操作(十五)
大数据·数据库·数据仓库·hive·hadoop
顧棟1 天前
【Spark 实战】基于spark3.4.2+iceberg1.6.1搭建本地调试环境
大数据·分布式·spark