大数据学习(8)-hive压缩

&&大数据学习&&

🔥系列专栏: 👑哲学语录: 承认自己的无知,乃是开启智慧的大门

💖如果觉得博主的文章还不错的话,请点赞👍+收藏⭐️+留言📝支持一下博>主哦🤞


压缩

在Hive表中和计算过程中,保持数据的压缩,对磁盘空间的有效利用和提高查询性能都是十分有益的。

Hive表数据进行压缩

在Hive中,不同文件类型的表,声明数据压缩的方式是不同的。

1 )TextFile

若一张表的文件类型为TextFile,若需要对该表中的数据进行压缩,多数情况下,无需在建表语句做出声明。直接将压缩后的文件导入到该表即可,Hive在查询表中数据时,可自动识别其压缩格式,进行解压。

需要注意的是,在执行往表中导入数据的SQL语句时,用户需设置以下参数,来保证写入表中的数据是被压缩的。

--SQL语句的最终输出结果是否压缩

复制代码
set hive.exec.compress.output=true;

--输出结果的压缩格式(以下示例为snappy)

复制代码
set mapreduce.output.fileoutputformat.compress.codec =org.apache.hadoop.io.compress.SnappyCodec;

2 )ORC

若一张表的文件类型为ORC,若需要对该表数据进行压缩,需在建表语句中声明压缩格式如下:

复制代码
create table orc_table

(column_specs)

stored as orc

tblproperties ("orc.compress"="snappy");

3 )Parquet

若一张表的文件类型为Parquet,若需要对该表数据进行压缩,需在建表语句中声明压缩格式如下:

复制代码
create table orc_table

(column_specs)

stored as parquet

tblproperties ("parquet.compression"="snappy");

计算过程中使用压缩

1)单个MR的中间结果进行压缩

单个MR的中间结果是指Mapper输出的数据,对其进行压缩可降低shuffle阶段的网络IO,可通过以下参数进行配置:

--开启MapReduce中间数据压缩功能

复制代码
set mapreduce.map.output.compress=true;

--设置MapReduce中间数据数据的压缩方式(以下示例为snappy)

复制代码
set mapreduce.map.output.compress.codec=org.apache.hadoop.io.compress.SnappyCodec;

2)单条SQL语句的中间结果进行压缩

单条SQL语句的中间结果是指,两个MR(一条SQL语句可能需要通过MR进行计算)之间的临时数据,可通过以下参数进行配置:

--是否对两个MR之间的临时数据进行压缩

复制代码
set hive.exec.compress.intermediate=true;

--压缩格式(以下示例为snappy)

复制代码
set hive.intermediate.compression.codec= org.apache.hadoop.io.compress.SnappyCodec;
相关推荐
梦子yumeko32 分钟前
第六章langchain4j之Tools和prompt
大数据·prompt
AcrelGHP1 小时前
光储充微电网能量管理系统:构建绿色、高效、安全的能源未来
大数据·运维·人工智能
星辰大海14121 小时前
摄影入门学习笔记
笔记·数码相机·学习
沐矢羽1 小时前
upload文件上传漏洞浅析
学习·web安全·网络安全·文件上传·top10
wudl55661 小时前
Flink RocksDB State Backend 详解
大数据·flink
Hello.Reader1 小时前
用一份 YAML 编排实时数据集成Flink CDC 工程实践
大数据·flink
不二人生1 小时前
从 Flink 到 Doris 的实时数据写入实践 —— 基于 Flink CDC 构建更实时高效的数据集成链路
大数据·flink·cdc
shenghaide_jiahu1 小时前
数学分析简明教程——2.3 (未完)
学习
罗不俷2 小时前
【Hadoop】Hadoop 起源与核心组件解析 —— 大数据时代的分布式基石
大数据·hadoop·分布式
Hello.Reader2 小时前
用 Flink CDC 将 MySQL 实时同步到 Doris
大数据·mysql·flink