Spark-Core编程2

Key-Value类型:

sortByKey:根据键值对中的键进行排序,支持开和降序。

join:返回两个 RDD 中相同键对应的所有元素,结果以键开头,值为嵌套形式。

leftOuterJoin:类似于 SQL 语句的左外连接,,以源RDD 为主。

Right outer Join:类似于 SQL 中的右外连接,以参数 RDD 为主。

cogroup:将相同键的值组合在一起,返回可变集合类型。

累加器

累加器用来把 Executor 端变量信息聚合到 Driver 端。在 Driver 程序中定义的变量,在Executor 端的每个 Task 都会得到这个变量的一份新的副本,每个 task 更新这些副本的值后,传回 Driver 端进行 merge。

广播变量

广播变量用来高效分发较大的对象。向所有工作节点发送一个较大的只读值,以供一个或多个 Spark 操作使用。比如,如果你的应用需要向所有节点发送一个较大的只读查询表,广播变量用起来都很顺手。在多个并行操作中使用同一个变量,但是 Spark 会为每个任务分别发送。

RDD行动算子

行动算子就是会触发action的算子,触发action的含义就是真正的计算数据。

reduce:聚合 RDD 中所有元素,返回一个具体值。

collect:在驱动程序中,以数组 Array 的形式返回数据集的所有元素。

foreach:分布式遍历 RDD 中的每一个元素,调用指定函数。

count:返回 RDD 中元素的个数。

first:返回 RDD 中的第一个元素。

take:返回一个由 RDD 的前 n 个元素组成的数组。

takeOrdered:返回该 RDD 排序后的前 n 个元素组成的数组。

aggregate:分区的数据通过初始值和分区内的数据进行聚合,然后再和初始值进行分区间的数据聚合。

fold:折叠操作,aggregate 的简化版操作。

countByKey:统计每种 key 的个数。

save 相关算子:将数据保存到不同格式的文件中。

分区计算

分区内计算:在每个分区内进行计算。

分区间计算:在所有分区之间进行计算。

指定分区:可以手动指定分区数量,影响计算结果。

相关推荐
AI数据皮皮侠3 小时前
中国各省森林覆盖率等数据(2000-2023年)
大数据·人工智能·python·深度学习·机器学习
大有数据可视化6 小时前
数字孪生背后的大数据技术:时序数据库为何是关键?
大数据·数据库·人工智能
Elastic 中国社区官方博客8 小时前
CI/CD 流水线与 agentic AI:如何创建自我纠正的 monorepos
大数据·运维·数据库·人工智能·搜索引擎·ci/cd·全文检索
理智的煎蛋11 小时前
基于 Celery 的分布式文件监控系统
redis·分布式·python·mysql·mongodb
计算机毕设残哥12 小时前
基于Hadoop+Spark的商店购物趋势分析与可视化系统技术实现
大数据·hadoop·python·scrapy·spark·django·dash
IT研究室12 小时前
大数据毕业设计选题推荐-基于大数据的全球能源消耗量数据分析与可视化系统-大数据-Spark-Hadoop-Bigdata
大数据·hadoop·spark·毕业设计·源码·数据可视化·bigdata
武子康13 小时前
大数据-113 Flink 源算子详解:非并行源(Non-Parallel Source)的原理与应用场景
大数据·后端·flink
失散1314 小时前
分布式专题——22 Kafka集群工作机制详解
java·分布式·云原生·架构·kafka
禁默15 小时前
第四届云计算、大数据应用与软件工程国际学术会议(CBASE 2025)
大数据·云计算
Lansonli15 小时前
大数据Spark(六十五):Transformation转换算子groupByKey和filter
大数据·分布式·spark