Spark-core-RDD入门

RDD基本概念

Resilient Distributed Dataset 叫做弹性分布式数据集,是Spark中最基本的数据抽象,是分布式计算的实现载体,代表一个不可变,可分区,里面的元素并行计算的集合。

  • Dataset: 一个数据集合,用来存放数据的。之前我们学习的Scala中,Array, Set等也叫数据集。

  • Distributed: 分布式存储的,表示数据是存放在不同的机器上的。这就和我们前面学习数据结构就不同了。

  • Resilient: 数据可以保存在内存或者磁盘中。

然后,我们在看看它的定义中的一些关键字:

不可变的 :immutable。类比理解scala中的不可变集合或者是使用val修饰的变量。

可分区的 :集合的数据课划分成为很多部分,每部分称为分区:Partition

并行计算 :集合中的数据可以被并行的计算处理,每个分区数据被一个Task任务处理。

RDD的创建

spark的计算功能是通过RDD来实现的,那么如何去创建RDD呢?有两种创建方式。

1.从集合内存中创建

可以通过将本地集合(如数组、列表等)传递给 SparkContext 的 parallelize 方法来创建 RDD。

// 创建 SparkConf 和 SparkContext

val conf = new SparkConf().setAppName("RDDFromCollection").setMaster("local[*]")

val sc = new SparkContext(conf)

// 创建一个本地集合

val data = Array(1, 2, 3, 4, 5)

// 通过 parallelize 方法将本地集合转换为 RDD

val distData = sc.parallelize(data, 2) // 第二个参数是分区数

2.从外部存储中创建。 例如,读入外部的文件。

// 创建 SparkConf 和 SparkContext

val conf = new SparkConf().setAppName("RDDFromHDFS").setMaster("local[*]")

val sc = new SparkContext(conf)

// 从 HDFS 加载文本文件

val hdfsRDD = sc.textFile("hdfs://namenode:8020/path/to/your/file.txt")
// 获取并打印分区数val partitionCount = hdfsRDD.getNumPartitions

println(s"The number of partitions is: $partitionCount")

可以通过getNumPartitions来获取分区的数量。

SparkConf 和 SparkContext

SparkConf 类用于配置 Spark 应用程序的各种参数。通过 SparkConf 类,你可以设置应用程序的名称、运行模式(如本地模式、集群模式)、资源分配(如内存、CPU 核心数)等。

主要作用配置应用程序参数:可以设置 Spark 应用程序的各种属性,如应用程序名称、主节点地址等。

管理配置信息:将配置信息封装在一个对象中,方便在应用程序中传递和使用。

SparkContext 是 Spark 应用程序的入口点,它代表了与 Spark 集群的连接。通过 SparkContext,你可以创建 RDD(弹性分布式数据集)、累加器、广播变量等,还可以与外部数据源进行交互。

相关推荐
仟濹5 小时前
【HTML】基础学习【数据分析全栈攻略:爬虫+处理+可视化+报告】
大数据·前端·爬虫·数据挖掘·数据分析·html
viperrrrrrrrrr76 小时前
大数据学习(125)-hive数据分析
大数据·学习
仟濹7 小时前
「数据采集与网络爬虫(使用Python工具)」【数据分析全栈攻略:爬虫+处理+可视化+报告】
大数据·爬虫·python·数据挖掘·数据分析
鼓掌MVP7 小时前
软件工程方法论:在确定性与不确定性的永恒之舞中寻找平衡
大数据·软件工程
伊克罗德信息科技7 小时前
基于RPA技术的ECRobot企业智能体解决方案,打通企业自动化业务流程的最后一公里
大数据·人工智能
Elastic 中国社区官方博客7 小时前
Elastic 和 AWS 合作将 GenAI 引入 DevOps、安全和搜索领域
大数据·数据库·elasticsearch·搜索引擎·云计算·全文检索·aws
乱世刀疤7 小时前
深度 |推动公共数据按需有序安全流动
大数据
Mikhail_G8 小时前
Python应用for循环临时变量作用域
大数据·运维·开发语言·python·数据分析
星之尘10219 小时前
“粽”览全局:分布式系统架构与实践深度解析(端午特别版)
分布式·spring cloud·微服务·系统架构·kubernetes·serverless·可用性测试
AI大模型系统化学习9 小时前
AI产品风向标:从「工具属性」到「认知引擎」的架构跃迁
大数据·人工智能·ai·架构·大模型·ai大模型·大模型学习