一百九十、Hive——Hive刷新分区MSCK REPAIR TABLE

一、目的

在用Flume采集Kafka中的数据直接写入Hive的ODS层静态分区表后,需要刷新表,才能导入分区和数据。原因很简单,就是Hive表缺乏分区的元数据

二、实施步骤

(一)问题------在Flume采集Kafka中的数据写入HDFS后,如果不刷新表,则没有分区和表数据

(二)解决方法------Hive刷新分区MSCK

hive> MSCK REPAIR TABLE ods_queue2;

(三)刷新表后查看分区和表数据

相关推荐
项目題供诗14 小时前
Hadoop(四)
大数据·hadoop·github
喻师傅1 天前
横扫SQL面试——流量与转化率分类
大数据·数据仓库·sql
小白不想白a1 天前
【Hadoop】Zookeeper、HBase、Sqoop
hadoop·分布式·zookeeper·hbase·sqoop
小白不想白a2 天前
【Hadoop】YARN、离线计算框架MapReduce、Hive
大数据·hive·hadoop·mapreduce·yarn
不辉放弃2 天前
为什么hive在处理数据时,有的累加是半累加数据
数据仓库·hive·hadoop
Lx3522 天前
Hadoop集群资源管理:合理分配CPU和内存资源
大数据·hadoop
IT研究室2 天前
大数据毕业设计选题推荐-基于大数据的城市空气污染数据分析系统-Spark-Hadoop-Bigdata
大数据·hadoop·spark·毕业设计·源码·bigdata·选题推荐
Lx3522 天前
MapReduce内存调优:避免OOM的黄金法则
大数据·hadoop
lifallen2 天前
Hadoop MapReduce 任务/输入数据 分片 InputSplit 解析
大数据·数据结构·hadoop·分布式·算法
小白不想白a4 天前
【Hadoop】HDFS 分布式存储系统
hadoop·分布式·hdfs