Spark RDD中常用聚合算子源码层面的对比分析

在 Spark RDD 中,groupByKeyreduceByKeyfoldByKeyaggregateByKey 是常用的聚合算子,适用于按键进行数据分组和聚合。它们的实现方式各不相同,涉及底层调用的函数也有区别。以下是对这些算子在源码层面的分析,以及每个算子适用的场景和代码示例。


1. groupByKey

  • 功能 :将相同键的值分组,形成一个 (key, Iterable<values>) 的 RDD。

  • 源码分析
    groupByKey 底层使用了 combineByKeyWithClassTag 方法进行数据分组。

    scala 复制代码
    def groupByKey(): RDD[(K, Iterable[V])] = {
        combineByKeyWithClassTag(
          (v: V) => mutable.ArrayBuffer(v),
          (c: mutable.ArrayBuffer[V], v: V) => { c += v; c },
          (c1: mutable.ArrayBuffer[V], c2: mutable.ArrayBuffer[V]) => { c1 ++= c2; c1 }
        ).asInstanceOf[RDD[(K, Iterable[V])]]
    }
    • 适用场景:适合需要按键分组、无聚合的场景,但由于需要把所有键的值都传输到驱动端,数据量大时可能导致内存问题。
  • 示例

    python 复制代码
    rdd = sc.parallelize([("a", 1), ("b", 2), ("a", 3)])
    result = rdd.groupByKey().mapValues(list)
    print(result.collect())

    输出[('a', [1, 3]), ('b', [2])]


2. reduceByKey

  • 功能:基于给定的二元函数(如加法)对每个键的值进行聚合。

  • 源码分析
    reduceByKey 底层也是基于 combineByKeyWithClassTag 方法进行处理,但与 groupByKey 不同的是,它在每个分区内执行局部聚合,再进行全局聚合,减少了数据传输。

    scala 复制代码
    def reduceByKey(func: (V, V) => V): RDD[(K, V)] = {
        combineByKeyWithClassTag[V]((v: V) => v, func, func)
    }
    • 适用场景 :适用于需要对数据进行聚合计算的场景,能够有效减少 shuffle 数据量。
  • 示例

    python 复制代码
    rdd = sc.parallelize([("a", 1), ("b", 2), ("a", 3)])
    result = rdd.reduceByKey(lambda x, y: x + y)
    print(result.collect())

    输出[('a', 4), ('b', 2)]


3. foldByKey

  • 功能 :与 reduceByKey 类似,但提供了初始值,分区内和分区间合并时都使用这个初始值。

  • 源码分析
    foldByKey 的实现中调用了 aggregateByKey 方法,初始值会在每个分区中传递,确保聚合逻辑一致。

    scala 复制代码
    def foldByKey(zeroValue: V)(func: (V, V) => V): RDD[(K, V)] = {
        aggregateByKey(zeroValue)(func, func)
    }
    • 适用场景:当聚合操作需要一个初始值时使用,如从初始值开始累积计算。
  • 示例

    python 复制代码
    rdd = sc.parallelize([("a", 1), ("b", 2), ("a", 3)])
    result = rdd.foldByKey(0, lambda x, y: x + y)
    print(result.collect())

    输出[('a', 4), ('b', 2)]


4. aggregateByKey

  • 功能:支持更复杂的聚合操作,提供了分区内和分区间不同的聚合函数。

  • 源码分析
    aggregateByKey 是最通用的聚合算子,调用了 combineByKeyWithClassTag 方法来控制分区内和分区间的计算方式。

    scala 复制代码
    def aggregateByKey[U: ClassTag](zeroValue: U)(
        seqOp: (U, V) => U,
        combOp: (U, U) => U): RDD[(K, U)] = {
        // Implementation detail here
    }
    • 适用场景:适合复杂的聚合逻辑需求,例如在分区内和分区间使用不同的函数。
  • 示例

    python 复制代码
    rdd = sc.parallelize([("a", 1), ("b", 2), ("a", 3)])
    result = rdd.aggregateByKey(0,
                                lambda x, y: x + y,   # 分区内加和
                                lambda x, y: x + y)   # 分区间加和
    print(result.collect())

    输出[('a', 4), ('b', 2)]


区别总结

  • groupByKey:按键分组返回集合,适合分组场景,但内存消耗大。
  • reduceByKey:按键聚合,没有初始值,适用于聚合计算。
  • foldByKey:按键聚合,支持初始值,适合自定义累加计算。
  • aggregateByKey:最灵活的聚合算子,适合复杂逻辑。
相关推荐
村口蹲点的阿三9 小时前
Spark SQL 中对 Map 类型的操作函数
javascript·数据库·hive·sql·spark
唯余木叶下弦声10 小时前
PySpark之金融数据分析(Spark RDD、SQL练习题)
大数据·python·sql·数据分析·spark·pyspark
村口蹲点的阿三20 小时前
spark sql中对array数组类型操作函数列表
大数据·数据库·hive·sql·spark·database
青云游子1 天前
spark,读取和写入同一张表问题
大数据·分布式·spark
StarRocks_labs2 天前
从 Spark 到 StarRocks:实现58同城湖仓一体架构的高效转型
大数据·架构·spark·湖仓一体·lakehouse
兔子宇航员03012 天前
数据开发面经常见题整理-1
大数据·分布式·spark
B站计算机毕业设计超人3 天前
计算机毕业设计PySpark+Hadoop+Hive机票预测 飞机票航班数据分析可视化大屏 航班预测系统 机票爬虫 飞机票推荐系统 大数据毕业设计
大数据·hadoop·爬虫·python·spark·课程设计·数据可视化
王子良.4 天前
Hadoop 和 Spark 的内存管理机制分析
大数据·hadoop·spark
王子良.4 天前
Hadoop 与 Spark:大数据处理的比较
大数据·hadoop·spark