分区表与分桶表

前言:在大数据中,最常用的一种思想就是分治,我们可以把大的文件切割划分成一个个的小的文件,这样每次操作一个小的文件就会很容易

在 hive 当中也是支持这种思想的,就是我们可以把大的数据,按照每天,或者每小时进行切分成一个个的小的文件,这样去操作小的文件就会容易

1.使用:基本语法:

create table tablename(...) partitioned by ( 分区列 列类型 , ......) row format delimited fields terminated by '';

例如;create table myhive.score(id int ,cid string,score int) partitioned by (mouth string) row format delimited fields terminated by '\t';

查看:hdfs,发现目前是空的

加入数据:

命令:load data local inpath '/home/wtk/score.txt' into table myhive.score partition(mouth='241025');

几个分区就有几个文件夹

3.查看分区:show partitions score

4.创建表以后的修改:

5.分桶表:

分桶和分区一样,也是一种通过改变表的存储模式,从而完成对表优化的一种调优方式

但和分区不同,分区是将表拆分到不同的子文件夹中进行存储,而分桶是将表拆分到固定数量的不同文件中进行存储

一:创建:开启分桶的自动优化(自动匹配 reduce task 数量和桶数量一致)

命令:set hive.enforce.bucketing=true;

创建分桶表

create table course (c_id string,c_name string,t_id string) clustered by(c_id)

into 3 buckets row format delimited fields terminated by '\t';

桶表的数据加载,由于桶表的数据加载通过 load data 无法执行,只能通过 insert select.

看吧,不能load data 直接导入到表,此时可以新建表

新建临时表

插入数据到目标

命令: insert overwrite table course select * from course_son cluster by(c_id);

问题:为什么不可以用 load data ,必须用 insert select 插入数据

总的来说分桶表不能被计算计算过程,MapReduce一直在用,而load data 只是单纯导入文件数据

一旦有了分桶设置,比如分桶数量为 3 ,那么,表内文件或分区内数据文件的数量就限定为 3
当数据插入的时候,需要一分为 3 ,进入三个桶文件内。

Hash 取模:

Hash 算法是一种数据加密算法,同样的值被 Hash 加密后的结果是一致的

性能提升:

如果说分区表的性能提升是:在指定分区列的前提下,减少被操作的数据量,从而提升性能。分桶表的性能提升就是:基于分桶列的特定操作,如:过滤、 JOIN 、分组,均可带来性能提升。

分区和分桶可以同时使用

相关推荐
TG:@yunlaoda360 云老大39 分钟前
谷歌云Flink 核心组成及生态发展:实时数据处理的下一代引擎
大数据·flink·googlecloud
JavaBoy_XJ40 分钟前
电商系统中ES检索技术设计和运用
大数据·elasticsearch·搜索引擎
q***21386 小时前
分布式多卡训练(DDP)踩坑
分布式
nini_boom8 小时前
**论文初稿撰写工具2025推荐,高效写作与智能辅助全解析*
大数据·python·信息可视化
小园子的小菜9 小时前
Elasticsearch高阶用法实战:从数据建模到集群管控的极致优化
大数据·elasticsearch·搜索引擎
源码之家10 小时前
机器学习:基于大数据二手房房价预测与分析系统 可视化 线性回归预测算法 Django框架 链家网站 二手房 计算机毕业设计✅
大数据·算法·机器学习·数据分析·spark·线性回归·推荐算法
干就完事了11 小时前
Hive内置函数
数据仓库·hive·hadoop
布吉岛没有岛_11 小时前
Hadoop学习_week1
大数据·hadoop
槁***耿12 小时前
后端分布式事务解决方案,Seata与Hmily对比
分布式
1***y17812 小时前
PySpark RDD编程实战,分布式数据处理
分布式