Hive:从HDFS回收站恢复被删的表

场景

一张手工维护的内部表,本来排查没有使用,然后删掉了,发现又需要使用,只能恢复这张表了。

1.确认HDFS是否开启回收站功能

2.查看回收站中的数据

被删除的数据会放在删除数据时使用的用户目录下,如:使用pgxl删除的,那么删除的数据会放在如下目录:

/user/pgxl/.Trash

该目录下会有多个文件夹,每小时删除的数据放在不同文件夹下,目录如下:

3.将回收站的数据移动回表目录下

hive表数据存放的具体位置得看项目中hive的配置,默认放在/user/hive/warehouse下。公司生成环境放在/data下。

powershell 复制代码
[pgxl@tjst8-109 ~]$ hdfs dfs -mv /user/pgxl/.Trash/231130080017/data/hive/warehouse/wedw_dw.db/yyf_styy_txynhis_record_settle_bill_detail_df/* /data/hive/warehouse/wedw_dw.db/yyf_styy_txynhis_record_settle_bill_detail_df/

4.将metastore的分区信息重新写入metastore

通过hdfs dfs -put或者hdfs api写入hive分区表的数据在hive中是无法被查询到的,因为这部分数据的元数据信息没有同步到metastore。如:

powershell 复制代码
spark-sql> select count(1) from wedw_dw.yyf_styy_txynhis_record_settle_bill_detail_df;
0

可使用MSCK REPAIR TABLE命令重新检查一张表的元数据信息。

powershell 复制代码
spark-sql> msck repair table wedw_dw.yyf_styy_txynhis_record_settle_bill_detail_df;

再次查询即可查到数据:

spark-sql> select count(1) from wedw_dw.yyf_styy_txynhis_record_settle_bill_detail_df;

1323423

相关推荐
鹿衔`1 天前
Hadoop HDFS 核心机制与设计理念浅析文档
大数据·hadoop·hdfs
Justice Young1 天前
Sqoop复习笔记
hadoop·笔记·sqoop
大厂技术总监下海1 天前
从Hadoop MapReduce到Apache Spark:一场由“磁盘”到“内存”的速度与范式革命
大数据·hadoop·spark·开源
zgl_200537791 天前
ZGLanguage 解析SQL数据血缘 之 Python提取SQL表级血缘树信息
大数据·数据库·数据仓库·hive·hadoop·python·sql
Justice Young2 天前
Hive第四章:HIVE Operators and Functions
大数据·数据仓库·hive·hadoop
LF3_2 天前
hive,Relative path in absolute URI: ${system:user.name%7D 解决
数据仓库·hive·hadoop
德彪稳坐倒骑驴2 天前
Hive SQL常遗忘的命令
hive·hadoop·sql
Justice Young2 天前
Hive第六章:Hive Optimization and Miscellaneous
数据仓库·hive·hadoop
Justice Young2 天前
Hive第五章:Integeration with HBase
大数据·数据仓库·hive·hbase
Justice Young2 天前
Hive第三章:HQL的使用
大数据·数据仓库·hive·hadoop