分区表与分桶表

前言:在大数据中,最常用的一种思想就是分治,我们可以把大的文件切割划分成一个个的小的文件,这样每次操作一个小的文件就会很容易

在 hive 当中也是支持这种思想的,就是我们可以把大的数据,按照每天,或者每小时进行切分成一个个的小的文件,这样去操作小的文件就会容易

1.使用:基本语法:

create table tablename(...) partitioned by ( 分区列 列类型 , ......) row format delimited fields terminated by '';

例如;create table myhive.score(id int ,cid string,score int) partitioned by (mouth string) row format delimited fields terminated by '\t';

查看:hdfs,发现目前是空的

加入数据:

命令:load data local inpath '/home/wtk/score.txt' into table myhive.score partition(mouth='241025');

几个分区就有几个文件夹

3.查看分区:show partitions score

4.创建表以后的修改:

5.分桶表:

分桶和分区一样,也是一种通过改变表的存储模式,从而完成对表优化的一种调优方式

但和分区不同,分区是将表拆分到不同的子文件夹中进行存储,而分桶是将表拆分到固定数量的不同文件中进行存储

一:创建:开启分桶的自动优化(自动匹配 reduce task 数量和桶数量一致)

命令:set hive.enforce.bucketing=true;

创建分桶表

create table course (c_id string,c_name string,t_id string) clustered by(c_id)

into 3 buckets row format delimited fields terminated by '\t';

桶表的数据加载,由于桶表的数据加载通过 load data 无法执行,只能通过 insert select.

看吧,不能load data 直接导入到表,此时可以新建表

新建临时表

插入数据到目标

命令: insert overwrite table course select * from course_son cluster by(c_id);

问题:为什么不可以用 load data ,必须用 insert select 插入数据

总的来说分桶表不能被计算计算过程,MapReduce一直在用,而load data 只是单纯导入文件数据

一旦有了分桶设置,比如分桶数量为 3 ,那么,表内文件或分区内数据文件的数量就限定为 3
当数据插入的时候,需要一分为 3 ,进入三个桶文件内。

Hash 取模:

Hash 算法是一种数据加密算法,同样的值被 Hash 加密后的结果是一致的

性能提升:

如果说分区表的性能提升是:在指定分区列的前提下,减少被操作的数据量,从而提升性能。分桶表的性能提升就是:基于分桶列的特定操作,如:过滤、 JOIN 、分组,均可带来性能提升。

分区和分桶可以同时使用

相关推荐
莫彩1 小时前
Mapreduce 工业界批式计算经验汇总(下)
大数据·mapreduce
群联云防护小杜5 小时前
构建分布式高防架构实现业务零中断
前端·网络·分布式·tcp/ip·安全·游戏·架构
爱吃面的猫5 小时前
大数据Hadoop之——Flink1.17.0安装与使用(非常详细)
大数据·hadoop·分布式
Fireworkitte6 小时前
安装 Elasticsearch IK 分词器
大数据·elasticsearch
ywyy67987 小时前
短剧系统开发定制全流程解析:从需求分析到上线的专业指南
大数据·需求分析·短剧·推客系统·推客小程序·短剧系统开发·海外短剧系统开发
上上迁8 小时前
分布式生成 ID 策略的演进和最佳实践,含springBoot 实现(Java版本)
java·spring boot·分布式
长路 ㅤ   8 小时前
Java后端技术博客汇总文档
分布式·算法·技术分享·编程学习·java后端
暗影八度9 小时前
Spark流水线数据质量检查组件
大数据·分布式·spark
白鲸开源9 小时前
Linux 基金会报告解读:开源 AI 重塑经济格局,有人失业,有人涨薪!
大数据
海豚调度10 小时前
Linux 基金会报告解读:开源 AI 重塑经济格局,有人失业,有人涨薪!
大数据·人工智能·ai·开源