Spark-Core编程2

Key-Value类型:

sortByKey:根据键值对中的键进行排序,支持开和降序。

join:返回两个 RDD 中相同键对应的所有元素,结果以键开头,值为嵌套形式。

leftOuterJoin:类似于 SQL 语句的左外连接,,以源RDD 为主。

Right outer Join:类似于 SQL 中的右外连接,以参数 RDD 为主。

cogroup:将相同键的值组合在一起,返回可变集合类型。

累加器

累加器用来把 Executor 端变量信息聚合到 Driver 端。在 Driver 程序中定义的变量,在Executor 端的每个 Task 都会得到这个变量的一份新的副本,每个 task 更新这些副本的值后,传回 Driver 端进行 merge。

广播变量

广播变量用来高效分发较大的对象。向所有工作节点发送一个较大的只读值,以供一个或多个 Spark 操作使用。比如,如果你的应用需要向所有节点发送一个较大的只读查询表,广播变量用起来都很顺手。在多个并行操作中使用同一个变量,但是 Spark 会为每个任务分别发送。

RDD行动算子

行动算子就是会触发action的算子,触发action的含义就是真正的计算数据。

reduce:聚合 RDD 中所有元素,返回一个具体值。

collect:在驱动程序中,以数组 Array 的形式返回数据集的所有元素。

foreach:分布式遍历 RDD 中的每一个元素,调用指定函数。

count:返回 RDD 中元素的个数。

first:返回 RDD 中的第一个元素。

take:返回一个由 RDD 的前 n 个元素组成的数组。

takeOrdered:返回该 RDD 排序后的前 n 个元素组成的数组。

aggregate:分区的数据通过初始值和分区内的数据进行聚合,然后再和初始值进行分区间的数据聚合。

fold:折叠操作,aggregate 的简化版操作。

countByKey:统计每种 key 的个数。

save 相关算子:将数据保存到不同格式的文件中。

分区计算

分区内计算:在每个分区内进行计算。

分区间计算:在所有分区之间进行计算。

指定分区:可以手动指定分区数量,影响计算结果。

相关推荐
袁煦丞 cpolar内网穿透实验室14 分钟前
远程调试内网 Kafka 不再求运维!cpolar 内网穿透实验室第 791 个成功挑战
运维·分布式·kafka·远程工作·内网穿透·cpolar
人间打气筒(Ada)25 分钟前
GlusterFS实现KVM高可用及热迁移
分布式·虚拟化·kvm·高可用·glusterfs·热迁移
xu_yule25 分钟前
Redis存储(15)Redis的应用_分布式锁_Lua脚本/Redlock算法
数据库·redis·分布式
互联网科技看点29 分钟前
孕期科学补铁,保障母婴健康-仁合益康蛋白琥珀酸铁口服溶液成为产妇优选方案
大数据
Dxy12393102161 小时前
深度解析 Elasticsearch:从倒排索引到 DSL 查询的实战突围
大数据·elasticsearch·搜索引擎
YongCheng_Liang1 小时前
零基础学大数据:大数据基础与前置技术夯实
大数据·big data
AC赳赳老秦1 小时前
2026国产算力新周期:DeepSeek实战适配英伟达H200,引领大模型训练效率跃升
大数据·前端·人工智能·算法·tidb·memcache·deepseek
鹏说大数据1 小时前
Spark 和 Hive 的关系与区别
大数据·hive·spark
B站计算机毕业设计超人1 小时前
计算机毕业设计Hadoop+Spark+Hive招聘推荐系统 招聘大数据分析 大数据毕业设计(源码+文档+PPT+ 讲解)
大数据·hive·hadoop·python·spark·毕业设计·课程设计
B站计算机毕业设计超人1 小时前
计算机毕业设计hadoop+spark+hive交通拥堵预测 交通流量预测 智慧城市交通大数据 交通客流量分析(源码+LW文档+PPT+讲解视频)
大数据·hive·hadoop·python·spark·毕业设计·课程设计