一百九十、Hive——Hive刷新分区MSCK REPAIR TABLE

一、目的

在用Flume采集Kafka中的数据直接写入Hive的ODS层静态分区表后,需要刷新表,才能导入分区和数据。原因很简单,就是Hive表缺乏分区的元数据

二、实施步骤

(一)问题------在Flume采集Kafka中的数据写入HDFS后,如果不刷新表,则没有分区和表数据

(二)解决方法------Hive刷新分区MSCK

hive> MSCK REPAIR TABLE ods_queue2;

(三)刷新表后查看分区和表数据

相关推荐
都是蠢货20 小时前
Servlet的生命周期
hive·hadoop·servlet
沧海寄馀生21 小时前
Apache Hadoop生态组件部署分享-Kafka
大数据·hadoop·分布式·kafka·apache
沧海寄馀生21 小时前
Apache Hadoop生态组件部署分享-Spark
大数据·hadoop·分布式·spark·apache
yumgpkpm1 天前
接入Impala、Hive 的AI平台、开源大模型的国内厂商(星环、Doris、智谱AI、Qwen、DeepSeek、 腾讯混元、百川智能)
人工智能·hive·hadoop·zookeeper·spark·开源·hbase
沧海寄馀生1 天前
Apache Hadoop生态组件部署分享-Sqoop
大数据·hadoop·分布式·apache·sqoop
沧海寄馀生1 天前
Apache Hadoop生态组件部署分享-Ranger
大数据·hadoop·分布式·apache
juma90021 天前
反激式开关电源设计全解析:从理论到实操
hadoop
还是大剑师兰特2 天前
Hadoop入门基础教程(110 问题+ 答案)
hadoop·大剑师·hadoop教程·hadoop入门
笨蛋少年派2 天前
Sqoop数据迁移简介
hive·hadoop·sqoop
zhangkaixuan4562 天前
Flink Checkpoint 全生命周期深度解析
大数据·hadoop·flink·apache·paimon