Spark中的宽窄依赖

一、什么是依赖关系

这里通过一张图来解释:

result_rdd是由tuple_rdd使用reduceByKey算子得到的, 而tuple_rdd是由word_rdd使用map算子得到的,word_rdd又是由input_rdd使用flatMap算子得到的。它们之间的关系就称为依赖关系!

二、什么是宽窄依赖

  • 窄依赖:父RDD的一个分区的数据只给了子RDD的一个分区 【不用经过Shuffle】

特点:一对一或者多对一不经过Shuffle,性能相对较快, 但无法实现全局分区、排序、分组等

一个Stage内部的计算都是窄依赖的过程,全部在内存中 完成。

  • 宽依赖:父RDD的一个分区的数据给了子RDD的多个分区【需要调用Shuffle的分区器来实现】

特点:一对多,必须经过Shuffle,性能相对较慢,可以实现全 局分区、排序、分组等

Spark的job中按照宽依赖来划分 Stage

宽窄依赖本质:只是一种标记,标记两个RDD之间的依赖关系

三、为什么要标记宽窄关系

1、提高数据容错的性能,避免分区数据丢失时,需要重新构建整个RDD

**举例:**如果子RDD的某个分区的数据丢失

  • 不标记:不清楚父RDD与子RDD数据之间的关系,必须重新构建整个父RDD所有数据
  • 标记了:父RDD一个分区只对应子RDD的一个分区,按照对应关系恢复父RDD的对应分区即可

2、提高数据转换的性能,将连续窄依赖操作使用同一个Task都放在内存中直接转换

**举例:**如果RDD需要多个map、flatMap、filter、 reduceByKey、sortByKey等算子的转换操作

  • 不标记:每个转换不知道会不会经过Shuffle,都使用不同的 Task来完成,每个Task的结果要保存到磁盘
  • 标记了:多个连续窄依赖算子放在一个Stage中,共用一套 Task在内存中完成所有转换,性能更快。
相关推荐
juniperhan4 分钟前
Flink 系列第19篇:深入理解 Flink SQL 的时间语义与时区处理:从原理到实战
java·大数据·数据仓库·分布式·sql·flink
是有头发的程序猿4 分钟前
AI agent电商运营成本管控:1688运费核算及自动下单付款Python实操教程
大数据·开发语言
珠海西格电力7 分钟前
零碳园区管理系统“云-边-端”架构协同的核心价值
大数据·人工智能·分布式·微服务·架构·能源
GIS数据转换器23 分钟前
延凡分布式光伏集中监控平台
人工智能·分布式·数据挖掘·数据分析·无人机·智慧城市
早睡早起早日毕业25 分钟前
大数据管理与应用系列丛书《大数据平台架构》之第2章 分布式理论基础:大数据系统的架构基石
大数据·hadoop·分布式·架构
汽车仪器仪表相关领域35 分钟前
Kvaser Memorator Pro 2xHS v2:双通道CAN FD智能记录仪,赋能华南汽车与工业总线测试升级
大数据·人工智能·功能测试·安全·汽车·压力测试·可用性测试
刀法如飞36 分钟前
AI时代,基于大数据驱动内容运营的体系建设
大数据·人工智能·运营
架构师老Y39 分钟前
004、少样本与零样本Prompt:何时用、怎么用
大数据·人工智能·prompt
卷毛的技术笔记39 分钟前
告别“盲猜式”排障:分布式链路追踪方案选型与Spring Boot 3实战
java·spring boot·分布式·后端·spring·面试·系统架构
菜鸟小码40 分钟前
HDFS 常用命令大全:从入门到生产实战
大数据·hadoop·hdfs