spark core编程之行动算子、累加器、广播变量

一、RDD 行动算子

reduce:聚集 RDD 所有元素,先聚合分区内数据,再聚合分区间数据。

collect:在驱动程序中以数组形式返回数据集所有元素。

foreach:分布式遍历 RDD 元素并调用指定函数。

count:返回 RDD 中元素个数。

first:返回 RDD 中第一个元素。

take:返回 RDD 前 n 个元素组成的数组。

takeOrdered:返回 RDD 排序后的前 n 个元素组成的数组。

aggregate:分区数据通过初始值和分区内数据聚合,再和初始值进行分区间聚合

fold:折叠操作,是 aggregate 的简化版

countByKey:统计每种 key 的个数。

save 相关算子:将数据保存到不同格式文件

二、累加器

聚合 Executor 端变量信息到 Driver 端。在 Driver 程序中定义的变量,在

Executor 端的每个 Task 都会得到这个变量的一份新的副本,每个 task 更新这些副本的值后,传回 Driver 端进行 merge。

自定义累加器实现 wordcount:先创建自定义累加器类,再调用注册使用

三、广播变量

高效分发较大只读对象,向所有工作节点发送一个较大的只读值,以供一个或多个 Spark 操作使用

相关推荐
给我个面子中不2 小时前
分布式事物
分布式
猿java2 小时前
分布式系统,建议掌握这5种负载均衡算法!
分布式·后端·负载均衡
一元钱面包3 小时前
spark编程课后总结
spark
QX_hao4 小时前
【spark认任务提交】配置优先级顺序
大数据·分布式·spark
BenBen尔4 小时前
spark中,shuffle read和shuffle write的先后顺序是什么
大数据·分布式·spark
Data跳动4 小时前
【Flink运行时架构】重要概念
分布式·架构·flink
QX_hao4 小时前
【spark--scala】--环境配置
大数据·spark·scala
想你依然心痛4 小时前
Spark大数据分析与实战笔记(第四章 Spark SQL结构化数据文件处理-04)
笔记·数据分析·spark
howard20055 小时前
2.3 Spark运行架构与流程
spark·运行流程·运行架构