Spark大数据分析与实战笔记(第三章 Spark RDD 弹性分布式数据集-03)

文章目录

  • 每日一句正能量
  • [第3章 Spark RDD弹性分布式数据集](#第3章 Spark RDD弹性分布式数据集)
  • 章节概要
    • [3.4 RDD的分区](#3.4 RDD的分区)
    • [3.5 RDD的依赖关系](#3.5 RDD的依赖关系)
  • 后记

每日一句正能量

书籍是最好的朋友。当生活中遇到任何困难的时候,你都能够向它求助,它永远不会背弃你。

第3章 Spark RDD弹性分布式数据集

章节概要

传统的MapReduce虽然具有自动容错、平衡负载和可拓展性的优点,但是其最大缺点是采用非循环式的数据流模型,使得在迭代计算式要进行大量的磁盘IO操作。Spark中的RDD可以很好的解决这一缺点。

RDD是Spark提供的最重要的抽象概念,我们可以将RDD理解为一个分布式存储在集群中的大型数据集合,不同RDD之间可以通过转换操作形成依赖关系实现管道化,从而避免了中间结果的I/O操作,提高数据处理的速度和性能。接下来,本章将针对RDD进行详细讲解。

3.4 RDD的分区

  • RDD分区的作用
    在分布式程序中,网络通信的开销是很大的,因此控制数据分布以获得最少的网络传输可以极大的提升程序的整体性能,Spark程序可以通过控制RDD分区方式来减少通信开销。Spark中所有的RDD都可以进行分区,系统会根据一个针对键的函数对元素进行分区。虽然Spark不能控制每个键具体划分到哪个节点上,但是可以确保相同的键出现在同一个分区上。
  • RDD的分区原则
    RDD的分区原则是分区的个数尽量等于集群中的CPU核心(Core)数目。
  • 各种模式下的默认分区数目
    对于不同的Spark部署模式而言,都可以通过设置spark.default.parallelism这个参数值来配置默认的分区数目。
  1. Local模式:默认为本地机器的CPU数目,若设置了local[N],则默认为N。
  2. Standalone或者Yarn模式:在 "集群中所有CPU核数总和" 和 "2" 这两者中取较大值作为默认值。
  3. Mesos模式:默认的分区数是8。
  • RDD的分区方式
    Spark框架为RDD提供了两种分区方式,分别是哈希分区(HashPartitioner)和范围分区(RangePartitioner)。其中,哈希分区是根据哈希值进行分区;范围分区是将一定范围的数据映射到一个分区中。这两种分区方式已经可以满足大多数应用场景的需求。与此同时,Spark也支持自定义分区方式,即通过一个自定义的Partitioner对象来控制RDD的分区,从而进一步减少通信开销。

需要注意的是,RDD的分区函数是针对(Key,Value)类型的RDD,分区函数根据Key对RDD元素进行分区。因此,当需要对一些非(Key,Value)类型的RDD进行自定义分区时,需要先把RDD元素转换为(Key,Value)类型,再通过分区函数进行分区操作。

如果想要实现自定义分区,就需要定义一个类,使得这个自定义的类继承org.apache.spark.Partitioner类,并实现其中的3个方法,具体如下:

  1. def numPartitions:Int
    用于返回创建的分区个数。
  2. def getPartition(Key:Any)
    用于对输入的Key做处理,并返回该Key的分区ID,分区ID的范围是0~numPartitions-1。
  3. equals(other:Any)
    用于Spark判断自定义的Partitioner对象和其他的Partitioner对象是否相同,从而判断两个RDD的分区方式是否相同。

3.5 RDD的依赖关系

  • 依赖关系的种类
    在Spark中,不同的RDD之间具有依赖的关系。RDD与它所依赖的RDD的依赖关系有两种类型,分别是窄依赖(narrow dependency)和宽依赖(wide dependency) 。
  • 窄依赖是指父RDD的每一个分区最多被一个子RDD的分区使用,即OneToOneDependencies。
  1. 窄依赖的表现一般分为两类,第一类表现为一个父RDD的分区对应于一个子RDD的分区;第二类表现为多个父RDD的分区对应于一个子RDD的分区。
  2. 一个父RDD的一个分区不可能对应一个子RDD的多个分区。
  3. 为了便于理解,我们通常把窄依赖形象的比喻为独生子女。

RDD做map、filter和union算子操作时,是属于窄依赖的第一类表现;而RDD做join算子操作(对输入进行协同划分)时,是属于窄依赖表现的第二类。输入协同划分是指多个父RDD的某一个分区的所有Key,被划分到子RDD的同一分区。当子RDD做算子操作,因为某个分区操作失败导致数据丢失时,只需要重新对父RDD中对应的分区做算子操作即可恢复数据。当RDD执行map、filter及union和join操作时,都会产生窄依赖。如下图所示

  • 宽依赖是指子RDD的每一个分区都会使用所有父RDD的所有分区或多个分区,即OneToManyDependecies。

为了便于理解,我们通常把宽依赖形象的比喻为超生。当RDD做groupByKey和join操作时,会产生宽依赖,如下图所示。

父RDD做groupByKey和join(输入未协同划分)算子操作时,子RDD的每一个分区都会依赖于所有父RDD的所有分区。当子RDD做算子操作,因为某个分区操作失败导致数据丢失时,则需要重新对父RDD中的所有分区进行算子操作才能恢复数据。

需要注意的是,join算子操作既可以属于窄依赖,也可以属于宽依赖。当join算子操作后,分区数量没有变化则为窄依赖(如join with inputs co-partitioned,输入协同划分)﹔当join算子操作后,分区数量发生变化则为宽依赖(如join with inputs not co-partitioned,输入非协同划分)。

后记

RDD(弹性分布式数据集)是Spark中最基本的数据抽象。它将数据分布在集群的多个节点上进行并行处理,具有容错性和高效性。

RDD的分区是将一个大的数据集划分为多个小的数据块,每个分区都存储在集群的不同节点上,并行进行处理。通过对RDD进行分区,可以实现数据的并行计算和更高的效率。

RDD的依赖关系是指RDD之间的依赖关系图,用于记录RDD之间的血缘关系。当对一个RDD进行转换操作时,会生成一个新的RDD,并且新的RDD会记录对原始RDD的依赖关系。依赖关系分为窄依赖和宽依赖,窄依赖表示每个父RDD的分区最多只被一个子RDD的分区使用,宽依赖表示每个父RDD的分区可以被多个子RDD的分区使用。

通过对RDD的分区和依赖关系的管理,Spark可以实现数据的高效并行处理和容错。同时,由于RDD的不可变性,使得Spark可以通过血缘关系进行数据的恢复和重算,提高了计算的容错性和可靠性。

转载自:https://blog.csdn.net/u014727709/article/details/136033042

欢迎 👍点赞✍评论⭐收藏,欢迎指正

相关推荐
huaqianzkh17 分钟前
了解Hadoop:大数据处理的核心框架
大数据·hadoop·分布式
jlting1951 小时前
Kafka--关于broker的夺命连环问
分布式·kafka
菜菜-plus2 小时前
分布式,微服务,SpringCloudAlibaba,nacos,gateway,openFeign
java·分布式·微服务·nacos·gateway·springcloud·openfeign
幸运小新2 小时前
数据分析-Excel基础操作
数据分析
好奇的菜鸟3 小时前
RabbitMQ 通道(Channel)详解:方法使用、消息确认与拒绝
分布式·rabbitmq
黄小耶@3 小时前
python如何使用Rabbitmq
分布式·后端·python·rabbitmq
超级无敌暴龙战士(solider)3 小时前
如何保证RabbitMQ的可靠性传输
分布式·rabbitmq
Java资深爱好者5 小时前
数据湖与数据仓库的区别
大数据·数据仓库·spark
东方巴黎~Sunsiny11 小时前
当kafka消费的数据滞后1000条时,打印告警信息
分布式·kafka·linq
sj116373940312 小时前
Kafka新节点加入集群操作指南
分布式·kafka