Hive/Spark 整库导出/导入脚本

1. 整库导出为一个SQL文件

bash 复制代码
database="<your-database-name>"

cat << EOF > $database.sql
drop database if exists $database cascade;
create database if not exists $database;
use $database;
EOF

for table in $(beeline -n hadoop -u jdbc:hive2:// --showHeader=false --outputformat=tsv2 -e "use $database; show tables;"); do 
    beeline -n hadoop -u jdbc:hive2:// --showHeader=false --outputformat=tsv2 -e "show create table $database.$table;" >> $database.sql
    echo ";" >> $database.sql
done

2. 从SQL文件导入数据库

bash 复制代码
spark-sql -f /path/to/your-exported-db.sql
相关推荐
绿算技术2 小时前
OpenClaw × GP Spark:本地智能与极速存储的终极融合
大数据·分布式·spark
Hello.Reader9 小时前
Spark Connect 快速入门远程连接 Spark 集群实战
javascript·ajax·spark
Hello.Reader12 小时前
Pandas API on Spark 快速入门像写 Pandas 一样使用 Spark
大数据·spark·pandas
蓝眸少年CY1 天前
Hive - 函数、压缩与优化
数据仓库·hive·hadoop
talen_hx2962 天前
《零基础入门Spark》学习笔记 Day 06
笔记·学习·spark
D愿你归来仍是少年2 天前
Apache Spark 第 8 章:Structured Streaming 流处理
大数据·spark·apache
hf2000123 天前
零成本迁移,原地加速,成本降低60%:火花思维基于云器Lakehouse升级实践
大数据·分布式·spark·lakehouse
talen_hx2963 天前
《零基础入门Spark》学习笔记 Day 04
大数据·笔记·学习·spark
D愿你归来仍是少年3 天前
Apache Spark 详细讲解第 7 章:Shuffle 机制深度解析
大数据·spark·apache
Code知行合壹3 天前
Spark使用总结
大数据·分布式·spark