Spark-Core编程2

Key-Value类型:

sortByKey:根据键值对中的键进行排序,支持开和降序。

join:返回两个 RDD 中相同键对应的所有元素,结果以键开头,值为嵌套形式。

leftOuterJoin:类似于 SQL 语句的左外连接,,以源RDD 为主。

Right outer Join:类似于 SQL 中的右外连接,以参数 RDD 为主。

cogroup:将相同键的值组合在一起,返回可变集合类型。

累加器

累加器用来把 Executor 端变量信息聚合到 Driver 端。在 Driver 程序中定义的变量,在Executor 端的每个 Task 都会得到这个变量的一份新的副本,每个 task 更新这些副本的值后,传回 Driver 端进行 merge。

广播变量

广播变量用来高效分发较大的对象。向所有工作节点发送一个较大的只读值,以供一个或多个 Spark 操作使用。比如,如果你的应用需要向所有节点发送一个较大的只读查询表,广播变量用起来都很顺手。在多个并行操作中使用同一个变量,但是 Spark 会为每个任务分别发送。

RDD行动算子

行动算子就是会触发action的算子,触发action的含义就是真正的计算数据。

reduce:聚合 RDD 中所有元素,返回一个具体值。

collect:在驱动程序中,以数组 Array 的形式返回数据集的所有元素。

foreach:分布式遍历 RDD 中的每一个元素,调用指定函数。

count:返回 RDD 中元素的个数。

first:返回 RDD 中的第一个元素。

take:返回一个由 RDD 的前 n 个元素组成的数组。

takeOrdered:返回该 RDD 排序后的前 n 个元素组成的数组。

aggregate:分区的数据通过初始值和分区内的数据进行聚合,然后再和初始值进行分区间的数据聚合。

fold:折叠操作,aggregate 的简化版操作。

countByKey:统计每种 key 的个数。

save 相关算子:将数据保存到不同格式的文件中。

分区计算

分区内计算:在每个分区内进行计算。

分区间计算:在所有分区之间进行计算。

指定分区:可以手动指定分区数量,影响计算结果。

相关推荐
武子康14 小时前
大数据-184 Elasticsearch Doc Values 机制详解:列式存储如何支撑排序/聚合/脚本
大数据·后端·elasticsearch
expect7g15 小时前
Paimon源码解读 -- Compaction-8.专用压缩任务
大数据·后端·flink
良策金宝AI17 小时前
从CAD插件到原生平台:工程AI的演进路径与智能协同新范式
大数据·人工智能
康实训18 小时前
智慧老年实训室建设核心方案
大数据·实训室·养老实训室·实训室建设
min18112345618 小时前
分公司组织架构图在线设计 总部分支管理模板
大数据·人工智能·信息可视化·架构·流程图
周杰伦_Jay18 小时前
【Elasticsearch】核心概念,倒排索引,数据操纵
大数据·elasticsearch·搜索引擎
cai_cai018 小时前
springAlibaba + ollama + es 完成RAG知识库功能
大数据·elasticsearch·搜索引擎
Cx330❀18 小时前
Git 分支管理完全指南:从基础到团队协作
大数据·git·搜索引擎·全文检索
nhdh18 小时前
ELK(elasticsearch-7.6.2,kibana-7-6-2,Logstash-7.6.2)单节点部署
大数据·elk·elasticsearch