Spark中的宽窄依赖-宽窄巷子

1、什么是依赖关系?

2、什么是宽窄依赖?

窄依赖:Narrow Dependencies

定义:父RDD的一个分区的数据只给了子RDD的一个分区 【 不用经过Shuffle

特点:一对一或者多对一不经过Shuffle,性能相对较快, 但无法实现全局分区、排序、分组等

一个Stage内部的计算都是窄依赖的过程,全部在内存中 完成。

宽依赖:Wide/Shuffle Dependencies

定义:父RDD的一个分区的数据给了子RDD的多个分区【需要调用Shuffle的分区器来实现】

特点:一对多,必须经过Shuffle,性能相对较慢,可以实现全 局分区、排序、分组等

Spark的job中按照宽依赖来划分 Stage

本质:只是一种标记,标记两个RDD之间的依赖关系

3、为什么要标记宽窄关系?

宽窄依赖是在说哪个算子是宽哪个算子是窄吗?不是,说的是两个算子之间的关系。

1)提高数据容错的性能,避免分区数据丢失时,需要重新构建整个RDD

场景:如果子RDD的某个分区的数据丢失

不标记:不清楚父RDD与子RDD数据之间的关系,必须重新构建整个父RDD所有数据

标记了:父RDD一个分区只对应子RDD的一个分区,按照对应关系恢复父RDD的对应分区即可

2)提高数据转换的性能,将连续窄依赖操作使用同一个Task都放在内存中直接转换

算子之间,能在内存中转换的就在内存中转换,效率高,碰到需要shuffler的算子,就只能把数据放在磁盘,让shuffer算子,去拉取数据,效率低,如果不标记,怎么知道哪些算子需要shuffer呢?

场景:如果RDD需要多个map、flatMap、filter、 reduceByKey、sortByKey等算子的转换操作

不标记:每个转换不知道会不会经过Shuffle,都使用不同的 Task来完成,每个Task的结果要保存到磁盘

标记了:多个连续窄依赖算子放在一个Stage中,共用一套 Task在内存中完成所有转换,性能更快。

相关推荐
老蒋新思维3 分钟前
创客匠人峰会实录:创始人 IP 变现的 “人 + 智能体” 协同范式 —— 打破知识变现的能力边界
大数据·网络·人工智能·网络协议·tcp/ip·创始人ip·创客匠人
jkyy20141 小时前
端到端生态闭环:智能硬件+云平台+应用终端,最大化穿戴设备价值
大数据·人工智能·物联网·健康医疗
路边草随风1 小时前
java实现发布flink yarn application模式作业
java·大数据·flink·yarn
码以致用2 小时前
Kafka笔记
笔记·分布式·kafka
qyresearch_2 小时前
全球流体动力螺杆泵市场竞争格局、厂商战略与中国制造出海机遇(2026年)
大数据
TDengine (老段)2 小时前
TDengine IDMP 产品路线图
大数据·数据库·人工智能·ai·时序数据库·tdengine·涛思数据
Jerry.张蒙3 小时前
SAP物料移动与财务集成的逻辑梳理
大数据·ai·信息可视化·自动化·运维开发·创业创新
expect7g3 小时前
Paimon源码解读 -- Compaction-3.MergeSorter
大数据·后端·flink
老蒋新思维3 小时前
创客匠人深度洞察:创始人 IP 打造的非线性增长模型 —— 知识变现的下一个十年红利
大数据·网络·人工智能·tcp/ip·重构·数据挖掘·创客匠人
hans汉斯4 小时前
【人工智能与机器人研究】人工智能算法伦理风险的适应性治理研究——基于浙江实践与欧美经验的整合框架
大数据·人工智能·算法·机器人·数据安全·算法伦理·制度保障