一百九十、Hive——Hive刷新分区MSCK REPAIR TABLE

一、目的

在用Flume采集Kafka中的数据直接写入Hive的ODS层静态分区表后,需要刷新表,才能导入分区和数据。原因很简单,就是Hive表缺乏分区的元数据

二、实施步骤

(一)问题------在Flume采集Kafka中的数据写入HDFS后,如果不刷新表,则没有分区和表数据

(二)解决方法------Hive刷新分区MSCK

hive> MSCK REPAIR TABLE ods_queue2;

(三)刷新表后查看分区和表数据

相关推荐
朵朵zeng3 分钟前
ETL背景介绍_1:数据孤岛仓库的介绍
数据仓库·etl·原型模式
薇晶晶1 小时前
hadoop
hadoop
方二华2 小时前
数据仓库:企业数据管理的核心引擎
数据仓库
IvanCodes10 小时前
五、Hadoop集群部署:从零搭建三节点Hadoop环境(保姆级教程)
大数据·hadoop·分布式
IvanCodes16 小时前
六、Hive 分桶
大数据·hive
IvanCodes16 小时前
七、深入 Hive DDL:管理表、分区与洞察元数据
数据仓库·hive·hadoop
七七-d16 小时前
配置Hadoop集群-上传文件
大数据·hadoop·eclipse
若兰幽竹17 小时前
【HBase整合Hive】HBase-1.4.8整合Hive-2.3.3过程
数据库·hive·hbase
lix的小鱼18 小时前
安装Hadoop并运行WordCount程序
大数据·linux·hadoop
RestCloud19 小时前
ETL 数据集成平台与数据仓库的关系及 ETL 工具推荐
数据仓库·etl·cdc·数据集成平台