Spark常用的转化操作和动作操作详解

文章目录

Spark常用的转化操作和动作操作详解

一、引言

Apache Spark是一个强大的大数据处理框架,它提供了丰富的转换(Transformation)和动作(Action)操作来处理分布式数据集。这些操作是构建Spark应用程序的基础,理解它们对于高效使用Spark至关重要。

二、Spark的转换操作

1、map操作

map操作是最基本的转换操作之一,它将RDD中的每个元素通过应用一个函数转换成新的元素,并返回一个新的RDD。这个操作是懒惰的,即它不会立即执行计算,而是在后续的动作操作触发时才会执行。

scala 复制代码
val rdd = sc.parallelize(List(1, 2, 3, 4))
val mappedRDD = rdd.map(x => x * 2)
mappedRDD.collect().foreach(println) // 输出:2, 4, 6, 8

2、filter操作

filter操作用于从RDD中筛选出满足特定条件的元素。它接受一个测试函数,只有当测试函数返回true时,元素才会被包含在结果RDD中。

scala 复制代码
val rdd = sc.parallelize(List(1, 2, 3, 4))
val filteredRDD = rdd.filter(x => x % 2 == 0)
filteredRDD.collect().foreach(println) // 输出:2, 4

3、flatMap操作

flatMap操作类似于map,但它允许函数返回一个序列,并将序列中的所有元素平铺到结果RDD中。这在将RDD中的元素"展开"为更小的元素时非常有用。

scala 复制代码
val rdd = sc.parallelize(List("hello", "world"))
val flatMappedRDD = rdd.flatMap(_.split(" "))
flatMappedRDD.collect().foreach(println) // 输出:h, e, l, l, o, w, o, r, l, d

4、groupBy操作

groupBy操作允许根据某个键对RDD中的元素进行分组。它返回一个包含键和对应值迭代器的RDD。

scala 复制代码
val rdd = sc.parallelize(List((1, "a"), (2, "b"), (1, "c"), (2, "d")))
val groupedRDD = rdd.groupBy(_._1)
groupedRDD.collect().foreach{ case (key, value) => println(s"Key: $key, Values: ${value.toList}") }

三、Spark的动作操作

1、reduce操作

reduce操作通过一个累加器函数将RDD中的所有元素合并成一个单一的值。这个操作会触发实际的计算,并返回计算结果。

scala 复制代码
val rdd = sc.parallelize(List(1, 2, 3, 4))
val sum = rdd.reduce(_ + _)
println(s"Sum: $sum") // 输出:Sum: 10

2、collect操作

collect操作将RDD中的所有元素收集到驱动程序中的一个本地数组中。这是一个非常昂贵的操作,因为它涉及到跨网络的数据传输。

scala 复制代码
val rdd = sc.parallelize(List(1, 2, 3, 4))
val collectedArray = rdd.collect()
println(s"Collected Array: ${collectedArray.mkString(", ")}") // 输出:Collected Array: 1, 2, 3, 4

3、count操作

count操作返回RDD中元素的数量。这个操作会触发计算并返回结果。

scala 复制代码
val rdd = sc.parallelize(List(1, 2, 3, 4))
val count = rdd.count()
println(s"Count: $count") // 输出:Count: 4

四、总结

Spark的转换和动作操作是处理分布式数据集的核心。理解这些操作的工作原理和使用场景对于编写高效的Spark应用程序至关重要。转换操作允许我们以声明式的方式构建复杂的数据转换流程,而动作操作则触发实际的计算并返回结果。合理使用这些操作可以显著提高数据处理的效率和性能。


版权声明:本博客内容为原创,转载请保留原文链接及作者信息。

参考文章

相关推荐
武子康5 小时前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台1 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术1 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康1 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康2 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天2 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康4 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
肌肉娃子5 天前
20260227.spark.Spark 性能刺客:千万别在 for 循环里写 withColumn
spark
武子康5 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP6 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet