Spark中的宽窄依赖

一、什么是依赖关系

这里通过一张图来解释:

result_rdd是由tuple_rdd使用reduceByKey算子得到的, 而tuple_rdd是由word_rdd使用map算子得到的,word_rdd又是由input_rdd使用flatMap算子得到的。它们之间的关系就称为依赖关系!

二、什么是宽窄依赖

  • 窄依赖:父RDD的一个分区的数据只给了子RDD的一个分区 【不用经过Shuffle】

特点:一对一或者多对一不经过Shuffle,性能相对较快, 但无法实现全局分区、排序、分组等

一个Stage内部的计算都是窄依赖的过程,全部在内存中 完成。

  • 宽依赖:父RDD的一个分区的数据给了子RDD的多个分区【需要调用Shuffle的分区器来实现】

特点:一对多,必须经过Shuffle,性能相对较慢,可以实现全 局分区、排序、分组等

Spark的job中按照宽依赖来划分 Stage

宽窄依赖本质:只是一种标记,标记两个RDD之间的依赖关系

三、为什么要标记宽窄关系

1、提高数据容错的性能,避免分区数据丢失时,需要重新构建整个RDD

**举例:**如果子RDD的某个分区的数据丢失

  • 不标记:不清楚父RDD与子RDD数据之间的关系,必须重新构建整个父RDD所有数据
  • 标记了:父RDD一个分区只对应子RDD的一个分区,按照对应关系恢复父RDD的对应分区即可

2、提高数据转换的性能,将连续窄依赖操作使用同一个Task都放在内存中直接转换

**举例:**如果RDD需要多个map、flatMap、filter、 reduceByKey、sortByKey等算子的转换操作

  • 不标记:每个转换不知道会不会经过Shuffle,都使用不同的 Task来完成,每个Task的结果要保存到磁盘
  • 标记了:多个连续窄依赖算子放在一个Stage中,共用一套 Task在内存中完成所有转换,性能更快。
相关推荐
D愿你归来仍是少年几秒前
Flink 并行度变更时 RocksDB 状态迁移的关键机制与原理
大数据·flink·apache
殷紫川1 分钟前
别再乱用了!幂等处理与分布式锁,90% 开发者都踩过的坑与正确落地姿势
分布式·架构
昨夜见军贴061613 分钟前
AI审核守护透析安全:IACheck助力透析微生物检测报告精准合规
大数据·人工智能·安全
新新学长搞科研20 分钟前
【高届数会议征稿】第十二届传感云和边缘计算系统国际会议(SCECS 2026)
大数据·人工智能·生成对抗网络·边缘计算·传感器·学术会议
科技前瞻观察35 分钟前
国内科技领先的企业有哪些
大数据
Data-Miner1 小时前
57页可编辑PPT | 大数据决策分析平台建设方案
大数据
TMT星球1 小时前
从智能出行到智能家电,探路生态携智能空间全栈产品矩阵亮相AWE
大数据·人工智能·矩阵
AC赳赳老秦1 小时前
OpenClaw关键词挖掘Agent配置(附SOP脚本,可直接复制使用)
java·大数据·开发语言·人工智能·python·pygame·openclaw
央链知播2 小时前
以价值立品牌 以生态共成长 —— 明月三千里的高质量发展实践
大数据·人工智能
AI扑社2 小时前
AI时代下品牌建设的革命:从流量争夺到AI赋能的价值深耕
大数据·人工智能·geo·ai搜索