Hive 数据倾斜

1.什么是数据倾斜

数据倾斜:数据分布不均匀,造成数据大量的集中到一点,造成数据热点。主要表现为任务进度长时间维持在 99%或者 100%的附近,查看任务监控页面,发现只有少量 reduce 子任务未完成,因为其处理的数据量和其他的 reduce 差异过大。 单一 reduce 处理的记录数和平均记录数相差太大,通常达到好几倍之多,最长时间远大 于平均时长。

根本原因就是大量相同的key被分配到一个reduce里,造成一个reduce任务累死了,但是其他的reduce任务闲死

2.产生的原因

1,key 分布不均匀。

2,业务数据本身的特性。

3,建表考虑不周全。

4,某些 hsql 语句本身就存在数据倾斜。

就像进行表关联时:

(1)大表join小表:其实小表的key集中,分发到某一个或者几个reduce上的数据远远高于平均值

(2)大表join大表:空值或无意义值:如果缺失的项很多,在做join时这些空值就会非常集中,拖累进度。

(3)group by: group by的时候维度过小,某值的数量过多,处理某值的reduce非常耗时间。

(4)Count distinct:某特殊值过多,处理此特殊值的reduce耗时。

3.具体的数据倾斜以及解决方法:

3.1 空值产生的数据倾斜

使本身为 null 的所有记录替代随机字符串或者先过滤掉空值,而分散到了多个 reduceTask 中了,由于 null 值关联不上,处理后并不影响最终结果。

过滤掉空值的情况

sql 复制代码
select * from log a join user b on a.user_id is not null and a.user_id = b.user_id
union all
select * from log c where c.user_id is null;

(2)赋予空值新的 key 值

sql 复制代码
select * from log a left outer join user b on
case when a.user_id is null then concat('hive',rand()) else a.user_id end = b.user_id

3.2,不同数据类型关联产生数据倾斜

在join时,两个表关联字段数据类型不一致造成数据向一个MapReduce倾斜

把数字类型 id 转换成 string 类型的 id

sql 复制代码
select * from user a 
left outer join log b on b.user_id = cast(a.user_id as string)

3.3 join 倾斜

map join 概念:将其中做连接的小表(全量数据)分发到所有 MapTask 端进行 Join,从 而避免了 reduceTask,前提要求是内存足以装下该全量数据。自动开启 map join 优化,由两个参数控制:set hive.auto.convert.join=true; //设置 MapJoin 优化自动开启

set hive.mapjoin.smalltable.filesize=25000000 //设置小表不超过多大时开启 mapjoin 优化

1)如何join:关于驱动表的选取,选用join key分布最均匀的表作为驱动表,做好列裁剪和filter操作,以达到两表做join的时候,数据量相对变小的效果。

2)大小表join的时候:使用map join 让小的维度表先进内存,在map端完成reduce。效率很高。

3)大表join大表的时候:把空值的key变成一个字符串加上随机数,把倾斜的数据分到不同的reduce上,由于null值关联不上,处理后不影响最终的结果。

3.4,group by 倾斜

group by的维度太少,某个字段的数量太大,从而导致处理某个值数据的reduce处理非常耗时。

group by 维度过小的时候:采用sum() group by 的方法来替换count(distinct)完成计算。

参数调整:

sql 复制代码
hive.map.aggr = true    // Map 端部分聚合,相当于Combiner;
hive.groupby.skewindata=true    //有数据倾斜的时候进行负载均衡,
当选项设定为 true,生成的查询计划会有两个 MR Job。
第一个 MR Job 中,Map 的输出结果集合会随机分布到 Reduce 中,
每个 Reduce 做部分聚合操作,并输出结果,
这样处理的结果是相同的 Group By Key 有可能被分发到不同的 Reduce 中,
从而达到负载均衡的目的;
第二个 MR Job 再根据预处理的数据结果按照 Group By Key 分布到 Reduce 
中(这个过程可以保证相同的 Group By Key 被分布到同一个 Reduce 中),
最后完成最终的聚合操作。

3.5,count distinct 倾斜

count distinct 大量相同特殊值,将这些值为空的情况单独处理,如果是计算count distinct,可以不用处理,直接过滤,在最后结果中加1即可。如果还有其他的计算,需要进行group by,可以先将那些值为空的记录单独处理,再和其他计算结果进行 union。

4.数据倾斜解决方法总结

4.1重新分区(Repartitioning)

重新分区(Repartitioning):重新将表分区,使数据更均匀地分布在各个分区中。可以使用Hive的`INSERT OVERWRITE`语句和`DISTRIBUTE BY`子句来实现。

4.2. 聚合转换(Aggregation Conversion)

聚合转换(Aggregation Conversion):将一些大的聚合操作拆分成多个小的聚合操作,然后将结果再聚合起来。这样可以减少单个任务要处理的数据量,从而减轻数据倾斜的影响。可以使用Hive的`UNION ALL`语句和子查询来实现。

4.3. 随机分桶(Randomized Bucketing)

随机分桶(Randomized Bucketing):表分成多个桶(Bucket),并在插入数据时将数据随机分配到这些桶中。这样可以使数据更均匀地分布在各个桶中,从而减轻数据倾斜的影响。可以使用Hive的`CLUSTER BY`子句和`SORT BY`子句来实现。

4.4. 布隆过滤器(Bloom Filter)

布隆过滤器(Bloom Filter):使用布隆过滤器来过滤掉一些不需要处理的数据,从而减少单个任务要处理的数据量,从而减轻数据倾斜的影响。可以使用Hive的`MAP JOIN`和`STREAMTABLE`功能来实现。

4.5. 动态分区(Dynamic Partitioning)

布隆过滤器(Bloom Filter):Hive的动态分区功能来动态生成分区。这样可以避免一些特定的分区数据过大而导致的数据倾斜问题。

总之,处理Hive数据倾斜需要根据具体情况采取不同的方法。上述方法仅是一些常见的处理方法,具体选择哪种方法需要根据实际情况进行判断。

其他方法

1,参数调节:hive.map.aggr = true 在map端部分聚合。

2,参数调节:hive.groupby.skewindata=true 数据倾斜时负载均衡。

3,sql语句调节:join时选择key值分布较均匀的表作为驱动表,同时做好列裁剪和分区裁剪,以减少数据量。

4,sql语句调节:大小表join时,小表先进内存。

5,sql语句调节:大表join大表时,把key值为空的key变成一个字符串加上随机数,把倾斜的数据分到不同的reduce上,由于null值关联不上,因此处理后不影响最终结果。

相关推荐
18号房客3 小时前
高级sql技巧进阶教程
大数据·数据库·数据仓库·sql·mysql·时序数据库·数据库架构
Faith_xzc6 小时前
【Apache Doris】周FAQ集锦:第 26 期
大数据·数据仓库·开源·doris
筒栗子8 小时前
复习打卡大数据篇——Hadoop MapReduce
大数据·hadoop·mapreduce
金州饿霸8 小时前
Hadoop集群(HDFS集群、YARN集群、MapReduce计算框架)
大数据·hadoop·hdfs
lucky_syq9 小时前
Hive SQL和Spark SQL的区别?
hive·sql·spark
NiNg_1_23410 小时前
Hadoop中MapReduce过程中Shuffle过程实现自定义排序
大数据·hadoop·mapreduce
lucky_syq11 小时前
Spark和Hadoop之间的区别
大数据·hadoop·spark
武子康1 天前
大数据-257 离线数仓 - 数据质量监控 监控方法 Griffin架构
java·大数据·数据仓库·hive·hadoop·后端
莹雨潇潇1 天前
Hadoop完全分布式环境部署
大数据·hadoop·分布式