Spark数据倾斜_产生原因及定位处理办法_生产环境

在最近的项目中,历史和实时数据进行关联平滑时出现了数据倾斜,产生了笛卡尔积,具体现象如下:运行内存175GB,核数64,运行代码时,查看SparkUI界面的active jobs ,数据输入是1G,成功的stage为0,一直是0/120,由此,通过排查,的确发生笛卡尔积

Spark数据倾斜产生的原因及解决办法:

Spark数据倾斜主要在shuffle过程中由于不同的key对应的数据量不同导致,具体表现是不同的task处理的数据量不同。在Spark作业中,如果存在可能导致数据倾斜的key,可以考虑将这个key进行过滤,滤除可能导致数据倾斜的数据,从而在Spark作业中避免数据倾斜。另外,提高shuffle过程中的reduce端并行度,即增加reduce端的task数量,可以使得每个task分配到的数据量减少,从而缓解数据倾斜问题。

可参考文章:

Spark如何处理数据倾斜-CSDN博客

相关推荐
爬山算法10 分钟前
Redis(161)如何使用Redis实现分布式锁?
数据库·redis·分布式
边缘计算社区31 分钟前
云边协同推理再突破:新型分布式解码框架吞吐量提升近 10%
分布式
Light601 小时前
星火链智:领码SPARK融合平台与湖北数据知识产权综合服务平台全栈对接技术白皮书
大数据·零信任安全·领码spark·数据知识产权·ipaas集成·ai数据治理
beijingliushao1 小时前
100-Spark Local模式部署
大数据·python·ajax·spark
一水鉴天1 小时前
整体设计 定稿 之19 拼语言表述体系之2(codebuddy)
大数据·前端·人工智能·架构
大猫子的技术日记1 小时前
[后端杂货铺]深入理解分布式事务与锁:从隔离级别到传播行为
分布式·后端·事务
科技观察1 小时前
国产MATLAB替代软件的关键能力与生态发展现状
大数据·人工智能·matlab
梦里不知身是客112 小时前
flink任务的UI提交方式
大数据·ui·flink
数据智研2 小时前
【数据分享】古丝绸之路路线矢量数据
大数据·信息可视化·数据分析
上海蓝色星球2 小时前
打破BIM应用“花瓶”窘境:让模型“活”在业务场景中
大数据·人工智能