深度解读sparkRDD宽窄依赖

  1. RDD以及依赖关系介绍

    • RDD(弹性分布式数据集):是Spark的核心数据结构,它代表一个不可变、可分区、里面的元素可以并行计算的集合。RDD具有容错性,当某个分区的数据丢失时,可以通过转换操作的血缘关系重新计算得到。
    • 依赖关系:RDD之间存在依赖关系,这种依赖关系用于在某个RDD分区数据丢失或者需要重新计算时,能够从其依赖的RDD中重新生成数据。根据依赖关系的不同特点,分为宽依赖和窄依赖。
  2. 窄依赖(Narrow Dependency)

    • 概念:窄依赖是指父RDD的每个分区最多被一个子RDD分区使用。例如,map、filter等操作会产生窄依赖。
    • 特点
      • 计算高效:在进行计算时,窄依赖允许在一个计算节点上流水线式地执行多个转换操作。因为父RDD分区和子RDD分区是一对一或者多对一的关系,所以可以在一个节点上对分区数据连续进行处理,减少数据传输开销。
      • 故障恢复快:如果某个子RDD分区丢失,只需要重新计算该分区对应的父RDD分区即可。由于父RDD分区到子RDD分区的映射关系简单,重新计算的代价相对较小。
    • 图例

  3. 宽依赖(Wide Dependency)

    • 概念:宽依赖是指父RDD的一个分区可能被多个子RDD分区使用。例如,groupByKey、reduceByKey等操作会产生宽依赖。
    • 特点
      • 数据混洗(Shuffle):宽依赖通常会涉及到数据的混洗。因为父RDD的一个分区数据要被多个子RDD分区使用,所以需要对数据进行重新分区和传输,这个过程会产生大量的网络I/O和磁盘I/O开销。
      • 故障恢复复杂:如果某个子RDD分区丢失,由于其依赖多个父RDD分区,需要重新计算所有相关的父RDD分区,计算成本相对较高。
    • 图例
  4. 对Spark执行效率和容错性的影响

    • 执行效率
      • Spark在调度任务时,会尽量将窄依赖的操作组成流水线(pipeline)一起执行,以减少数据传输和磁盘I/O开销。而对于宽依赖,由于涉及数据混洗,会导致更多的网络和磁盘资源消耗,所以Spark会在宽依赖处划分阶段(Stage)。一个阶段内的操作主要是窄依赖操作,这样可以有效地利用集群资源,提高执行效率。
    • 容错性
      • 窄依赖的容错性恢复机制相对简单,只需要重新计算丢失分区对应的父RDD分区。而宽依赖的容错恢复成本较高,因为需要重新计算多个父RDD分区。不过,Spark利用RDD的血缘关系(Lineage)来记录RDD之间的依赖关系,无论是窄依赖还是宽依赖,都可以通过血缘关系来恢复丢失的数据。在实际应用中,合理设计RDD的转换操作,尽量减少宽依赖的产生,可以提高整个应用程序的容错性和性能。

5.为什么要标记宽窄关系?

  • 1)提高数据容错的性能,避免分区数据丢失时,需要重新构建整个RDD
    • 场景:如果子RDD的某个分区的数据丢失
      不标记:不清楚父RDD与子RDD数据之间的关系,必须重新构建整个父RDD所有数据
      标记了:父RDD一个分区只对应子RDD的一个分区,按照对应关系恢复父RDD的对应分区即可。
  • 提高数据转换的性能,将连续窄依赖操作使用同一个Task都放在内存中直接转换
    • 场景:如果RDD需要多个map、flatMap、filter、 reduceByKey、sortByKey等算子的转换操作
      不标记:每个转换不知道会不会经过Shuffle,都使用不同的 Task来完成,每个Task的结果要保存到磁盘
      标记了:多个连续窄依赖算子放在一个Stage中,共用一套 Task在内存中完成所有转换,性能更快。
相关推荐
API_technology2 小时前
电商搜索API的Elasticsearch优化策略
大数据·elasticsearch·搜索引擎
黄雪超2 小时前
大数据SQL调优专题——引擎优化
大数据·数据库·sql
The god of big data2 小时前
MapReduce 第二部:深入分析与实践
大数据·mapreduce
G***技3 小时前
杰和科技GAM-AI视觉识别管理系统,让AI走进零售营销
大数据·人工智能·系统架构
天天爱吃肉82184 小时前
碳化硅(SiC)功率器件:新能源汽车的“心脏”革命与技术突围
大数据·人工智能
Java资深爱好者5 小时前
在Spark中,如何使用DataFrame进行高效的数据处理
大数据·分布式·spark
跨境卫士小树6 小时前
店铺矩阵崩塌前夜:跨境多账号运营的3个生死线
大数据·线性代数·矩阵
roman_日积跬步-终至千里7 小时前
【Flink 实战】Flink 中 Akka 通信与内存占用分析
大数据·flink
南风过闲庭7 小时前
操作系统研究
大数据·人工智能·科技·学习·ai·系统架构
阿里云大数据AI技术7 小时前
美的楼宇科技基于阿里云 EMR Serverless Spark 构建 LakeHouse 湖仓数据平台
大数据·阿里云·spark·serverless·emr