Hive:从HDFS回收站恢复被删的表

场景

一张手工维护的内部表,本来排查没有使用,然后删掉了,发现又需要使用,只能恢复这张表了。

1.确认HDFS是否开启回收站功能

2.查看回收站中的数据

被删除的数据会放在删除数据时使用的用户目录下,如:使用pgxl删除的,那么删除的数据会放在如下目录:

/user/pgxl/.Trash

该目录下会有多个文件夹,每小时删除的数据放在不同文件夹下,目录如下:

3.将回收站的数据移动回表目录下

hive表数据存放的具体位置得看项目中hive的配置,默认放在/user/hive/warehouse下。公司生成环境放在/data下。

powershell 复制代码
[pgxl@tjst8-109 ~]$ hdfs dfs -mv /user/pgxl/.Trash/231130080017/data/hive/warehouse/wedw_dw.db/yyf_styy_txynhis_record_settle_bill_detail_df/* /data/hive/warehouse/wedw_dw.db/yyf_styy_txynhis_record_settle_bill_detail_df/

4.将metastore的分区信息重新写入metastore

通过hdfs dfs -put或者hdfs api写入hive分区表的数据在hive中是无法被查询到的,因为这部分数据的元数据信息没有同步到metastore。如:

powershell 复制代码
spark-sql> select count(1) from wedw_dw.yyf_styy_txynhis_record_settle_bill_detail_df;
0

可使用MSCK REPAIR TABLE命令重新检查一张表的元数据信息。

powershell 复制代码
spark-sql> msck repair table wedw_dw.yyf_styy_txynhis_record_settle_bill_detail_df;

再次查询即可查到数据:

spark-sql> select count(1) from wedw_dw.yyf_styy_txynhis_record_settle_bill_detail_df;

1323423

相关推荐
Lx3521 天前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
dessler2 天前
Hadoop HDFS-高可用集群部署
linux·运维·hdfs
Lx3522 天前
Hadoop容错机制深度解析:保障作业稳定运行
大数据·hadoop
IT毕设梦工厂3 天前
大数据毕业设计选题推荐-基于大数据的客户购物订单数据分析与可视化系统-Hadoop-Spark-数据可视化-BigData
大数据·hadoop·数据分析·spark·毕业设计·源码·bigdata
大数据CLUB3 天前
基于spark的澳洲光伏发电站选址预测
大数据·hadoop·分布式·数据分析·spark·数据开发
计算机编程小央姐3 天前
跟上大数据时代步伐:食物营养数据可视化分析系统技术前沿解析
大数据·hadoop·信息可视化·spark·django·课程设计·食物
IT学长编程3 天前
计算机毕业设计 基于Hadoop的健康饮食推荐系统的设计与实现 Java 大数据毕业设计 Hadoop毕业设计选题【附源码+文档报告+安装调试】
java·大数据·hadoop·毕业设计·课程设计·推荐算法·毕业论文
Lx3523 天前
Hadoop数据一致性保障:处理分布式系统常见问题
大数据·hadoop
IT学长编程3 天前
计算机毕业设计 基于Hadoop豆瓣电影数据可视化分析设计与实现 Python 大数据毕业设计 Hadoop毕业设计选题【附源码+文档报告+安装调试
大数据·hadoop·python·django·毕业设计·毕业论文·豆瓣电影数据可视化分析
盛源_013 天前
hadoop的api操作对象存储
hdfs·spark