深度解读sparkRDD宽窄依赖

  1. RDD以及依赖关系介绍

    • RDD(弹性分布式数据集):是Spark的核心数据结构,它代表一个不可变、可分区、里面的元素可以并行计算的集合。RDD具有容错性,当某个分区的数据丢失时,可以通过转换操作的血缘关系重新计算得到。
    • 依赖关系:RDD之间存在依赖关系,这种依赖关系用于在某个RDD分区数据丢失或者需要重新计算时,能够从其依赖的RDD中重新生成数据。根据依赖关系的不同特点,分为宽依赖和窄依赖。
  2. 窄依赖(Narrow Dependency)

    • 概念:窄依赖是指父RDD的每个分区最多被一个子RDD分区使用。例如,map、filter等操作会产生窄依赖。
    • 特点
      • 计算高效:在进行计算时,窄依赖允许在一个计算节点上流水线式地执行多个转换操作。因为父RDD分区和子RDD分区是一对一或者多对一的关系,所以可以在一个节点上对分区数据连续进行处理,减少数据传输开销。
      • 故障恢复快:如果某个子RDD分区丢失,只需要重新计算该分区对应的父RDD分区即可。由于父RDD分区到子RDD分区的映射关系简单,重新计算的代价相对较小。
    • 图例

  3. 宽依赖(Wide Dependency)

    • 概念:宽依赖是指父RDD的一个分区可能被多个子RDD分区使用。例如,groupByKey、reduceByKey等操作会产生宽依赖。
    • 特点
      • 数据混洗(Shuffle):宽依赖通常会涉及到数据的混洗。因为父RDD的一个分区数据要被多个子RDD分区使用,所以需要对数据进行重新分区和传输,这个过程会产生大量的网络I/O和磁盘I/O开销。
      • 故障恢复复杂:如果某个子RDD分区丢失,由于其依赖多个父RDD分区,需要重新计算所有相关的父RDD分区,计算成本相对较高。
    • 图例
  4. 对Spark执行效率和容错性的影响

    • 执行效率
      • Spark在调度任务时,会尽量将窄依赖的操作组成流水线(pipeline)一起执行,以减少数据传输和磁盘I/O开销。而对于宽依赖,由于涉及数据混洗,会导致更多的网络和磁盘资源消耗,所以Spark会在宽依赖处划分阶段(Stage)。一个阶段内的操作主要是窄依赖操作,这样可以有效地利用集群资源,提高执行效率。
    • 容错性
      • 窄依赖的容错性恢复机制相对简单,只需要重新计算丢失分区对应的父RDD分区。而宽依赖的容错恢复成本较高,因为需要重新计算多个父RDD分区。不过,Spark利用RDD的血缘关系(Lineage)来记录RDD之间的依赖关系,无论是窄依赖还是宽依赖,都可以通过血缘关系来恢复丢失的数据。在实际应用中,合理设计RDD的转换操作,尽量减少宽依赖的产生,可以提高整个应用程序的容错性和性能。

5.为什么要标记宽窄关系?

  • 1)提高数据容错的性能,避免分区数据丢失时,需要重新构建整个RDD
    • 场景:如果子RDD的某个分区的数据丢失
      不标记:不清楚父RDD与子RDD数据之间的关系,必须重新构建整个父RDD所有数据
      标记了:父RDD一个分区只对应子RDD的一个分区,按照对应关系恢复父RDD的对应分区即可。
  • 提高数据转换的性能,将连续窄依赖操作使用同一个Task都放在内存中直接转换
    • 场景:如果RDD需要多个map、flatMap、filter、 reduceByKey、sortByKey等算子的转换操作
      不标记:每个转换不知道会不会经过Shuffle,都使用不同的 Task来完成,每个Task的结果要保存到磁盘
      标记了:多个连续窄依赖算子放在一个Stage中,共用一套 Task在内存中完成所有转换,性能更快。
相关推荐
深空数字孪生3 小时前
储能调峰新实践:智慧能源平台如何保障风电消纳与电网稳定?
大数据·人工智能·物联网
百胜软件@百胜软件4 小时前
胜券POS:打造智能移动终端,让零售智慧运营触手可及
大数据
摩羯座-185690305945 小时前
Python数据可视化基础:使用Matplotlib绘制图表
大数据·python·信息可视化·matplotlib
在未来等你5 小时前
Kafka面试精讲 Day 13:故障检测与自动恢复
大数据·分布式·面试·kafka·消息队列
jiedaodezhuti5 小时前
Flink通讯超时问题深度解析:Akka AskTimeoutException解决方案
大数据·flink
庄小焱5 小时前
大数据存储域——Kafka实战经验总结
大数据·kafka·大数据存储域
zskj_qcxjqr6 小时前
告别传统繁琐!七彩喜艾灸机器人:一键开启智能养生新时代
大数据·人工智能·科技·机器人
每日新鲜事7 小时前
Saucony索康尼推出全新 WOOOLLY 运动生活羊毛系列 生动无理由,从专业跑步延展运动生活的每一刻
大数据·人工智能
在未来等你8 小时前
Kafka面试精讲 Day 15:跨数据中心复制与灾备
大数据·分布式·面试·kafka·消息队列
计算机编程-吉哥9 小时前
大数据毕业设计-基于Python的中文起点网小说数据分析平台(高分计算机毕业设计选题·定制开发·真正大数据)
大数据·hadoop·计算机毕业设计选题·机器学习毕业设计·大数据毕业设计·大数据毕业设计选题推荐·大数据毕设项目