Spark-Core编程

Value类型:

1)map

➢ 函数签名

def map[U: ClassTag](f: T => U): RDD[U]

➢ 函数说明

将处理的数据逐条进行映射转换,这里的转换可以是类型的转换,也可以是值的转换。import org.apache.spark.{SparkConf, SparkContext}

import org.apache.spark.rdd.RDD

object RDDMapExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 配置对象

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD_function")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(sparkConf)

// 创建一个 RDD,包含整数 1 到 4

val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4))

// 使用 map 函数将每个元素乘以 2

val dataRDD1: RDD[Int] = dataRDD.map(

num => {

num * 2

}

)

// 使用 map 函数将每个元素转换为字符串

val dataRDD2: RDD[String] = dataRDD1.map(

num => {

"" + num

}

)

// 收集 RDD2 的元素并打印

val result = dataRDD2.collect()

result.foreach(println)

// 停止 SparkContext

sparkContext.stop()

}

}

2)mapPartitions

import org.apache.spark.{SparkConf, SparkContext}

import org.apache.spark.rdd.RDD

object MapPartitionsExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD_function")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(sparkConf)

// 创建一个包含 1 到 4 的整数列表的 RDD

val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4))

// 使用 mapPartitions 函数对每个分区的数据进行过滤操作

val dataRDD1: RDD[Int] = dataRDD.mapPartitions(

datas => {

datas.filter(_ == 2)

}

)

// 收集 RDD 中的数据到本地

val result = dataRDD1.collect()

// 遍历并打印结果

result.foreach(println)

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}
)

3)mapPartitionsWithIndex

import org.apache.spark.{SparkConf, SparkContext}

import org.apache.spark.rdd.RDD

object RDDGlomExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象

val conf = new SparkConf().setAppName("RDDGlomExample").setMaster("local[*]")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(conf)

// 创建一个初始的 RDD

val dataRDD = sparkContext.makeRDD(List(

1, 2, 3, 4

), 1)

// 使用 glom 操作将每个分区中的元素转换为一个数组

val dataRDD1: RDD[Array[Int]] = dataRDD.glom()

// 收集结果并打印

val result = dataRDD1.collect()

result.foreach(arr => println(arr.mkString(", ")))

// 停止 SparkContext

sparkContext.stop()

}

}

4)flatMap

import org.apache.spark.{SparkConf, SparkContext}

import org.apache.spark.rdd.RDD

object FlatMapExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD_function")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(sparkConf)

// 创建一个包含多个列表的 RDD,分区数为 1

val dataRDD: RDD[List[Int]] = sparkContext.makeRDD(List(

List(1, 2), List(3, 4)

), 1)

// 使用 flatMap 函数将嵌套列表展开为单个元素的 RDD

val dataRDD1: RDD[Int] = dataRDD.flatMap(

list => list

)

// 收集 RDD 中的数据到本地

val result = dataRDD1.collect()

// 遍历并打印结果

result.foreach(println)

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}

5)Glom

import org.apache.spark.{SparkConf, SparkContext}

import org.apache.spark.rdd.RDD

object GlomExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD_function")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(sparkConf)

// 创建一个包含 1 到 4 的整数列表的 RDD,分区数为 1

val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4), 1)

// 使用 glom 函数将每个分区的数据转换为数组

val dataRDD1: RDD[Array[Int]] = dataRDD.glom()

// 收集 RDD 中的数据到本地

val result = dataRDD1.collect()

// 遍历结果并打印每个分区的数组

result.foreach(arr => println(arr.mkString("[", ", ", "]")))

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}

6)groupBy

import org.apache.spark.{SparkConf, SparkContext}

import org.apache.spark.rdd.RDD

object GroupByExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD_function")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(sparkConf)

// 创建一个包含 1 到 4 的整数列表的 RDD,分区数为 1

val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4), 1)

// 使用 groupBy 函数根据元素对 2 取模的结果进行分组

val dataRDD1: RDD[(Int, Iterable[Int])] = dataRDD.groupBy(

_ % 2

)

// 收集 RDD 中的数据到本地

val result = dataRDD1.collect()

// 遍历结果并打印每个分组

result.foreach { case (key, values) =>

println(s"Key: key, Values: {values.mkString("[", ", ", "]")}")

}

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}

)

7)Filter

import org.apache.spark.{SparkConf, SparkContext}

import org.apache.spark.rdd.RDD

object FilterExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD_function")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(sparkConf)

// 创建一个包含 1 到 4 的整数列表的 RDD,分区数为 1

val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4), 1)

// 使用 filter 函数筛选出偶数

val dataRDD1: RDD[Int] = dataRDD.filter(_ % 2 == 0)

// 使用 filter 函数筛选出奇数

val dataRDD2: RDD[Int] = dataRDD.filter(_ % 2 == 1)

// 收集偶数筛选结果到本地

val result1 = dataRDD1.collect()

// 收集奇数筛选结果到本地

val result2 = dataRDD2.collect()

// 打印偶数筛选结果

println("偶数结果:")

result1.foreach(println)

// 打印奇数筛选结果

println("奇数结果:")

result2.foreach(println)

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}

8)sample

import org.apache.spark.{SparkConf, SparkContext}

import org.apache.spark.rdd.RDD

object SampleExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD_function")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(sparkConf)

// 创建一个包含 1 到 4 的整数列表的 RDD,分区数为 1

val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4), 1)

// 抽取数据不放回(伯努利算法)

// 第一个参数:抽取的数据是否放回,false:不放回

// 第二个参数:抽取的几率,范围在[0,1]之间,0:全不取;1:全取;

// 第三个参数:随机数种子,这里使用默认值

val dataRDD1: RDD[Int] = dataRDD.sample(false, 0.5)

// 抽取数据放回(泊松算法)

// 第一个参数:抽取的数据是否放回,true:放回;false:不放回

// 第二个参数:重复数据的几率,范围大于等于 0,表示每一个元素被期望抽取到的次数

// 第三个参数:随机数种子,这里使用默认值

val dataRDD2: RDD[Int] = dataRDD.sample(true, 2)

// 收集不放回抽样的结果

val result1 = dataRDD1.collect()

// 收集放回抽样的结果

val result2 = dataRDD2.collect()

// 打印不放回抽样的结果

println("不放回抽样结果:")

result1.foreach(println)

// 打印放回抽样的结果

println("放回抽样结果:")

result2.foreach(println)

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}

Value类型:

9)Distinct

import org.apache.spark.{SparkConf, SparkContext}

import org.apache.spark.rdd.RDD

object DistinctExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD_function")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(sparkConf)

// 创建一个包含重复元素的 RDD

val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4, 1, 2))

// 使用 distinct() 方法去重,默认分区数

val dataRDD1: RDD[Int] = dataRDD.distinct()

// 使用 distinct(2) 方法去重,指定分区数为 2

val dataRDD2: RDD[Int] = dataRDD.distinct(2)

// 收集默认分区数去重后的结果

val result1 = dataRDD1.collect()

// 收集指定分区数去重后的结果

val result2 = dataRDD2.collect()

// 打印默认分区数去重后的结果

println("默认分区数去重结果:")

result1.foreach(println)

// 打印指定分区数去重后的结果

println("指定分区数(2)去重结果:")

result2.foreach(println)

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}

10、Coalesce

import org.apache.spark.{SparkConf, SparkContext}

import org.apache.spark.rdd.RDD

object CoalesceExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD_function")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(sparkConf)

// 创建一个包含重复元素的 RDD,初始分区数为 6

val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4, 1, 2), 6)

// 使用 coalesce 方法将分区数缩减为 2

val dataRDD1: RDD[Int] = dataRDD.coalesce(2)

// 收集缩减分区后 RDD 的数据

val result = dataRDD1.collect()

// 打印缩减分区后的数据

println("缩减分区后的数据:")

result.foreach(println)

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}

11、Repartition

import org.apache.spark.{SparkConf, SparkContext}

import org.apache.spark.rdd.RDD

object RepartitionExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD_function")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(sparkConf)

// 创建一个包含重复元素的 RDD,初始分区数为 2

val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4, 1, 2), 2)

// 使用 repartition 方法将分区数增加到 4

val dataRDD1: RDD[Int] = dataRDD.repartition(4)

// 收集重新分区后 RDD 的数据

val result = dataRDD1.collect()

// 打印重新分区后的数据

println("重新分区后的数据:")

result.foreach(println)

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}

12)sortBy

import org.apache.spark.SparkContext

import org.apache.spark.SparkConf

object SortByExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置应用名称和运行模式

val conf = new SparkConf().setAppName("SortByExample").setMaster("local[*]")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(conf)

// 创建一个包含数据的 RDD,并指定分区数为 2

val dataRDD = sparkContext.makeRDD(List(1, 2, 3, 4, 1, 2), 2)

// 打印原始 RDD 的内容

println("原始 RDD 的内容:")

dataRDD.collect().foreach(println)

// 使用 sortBy 方法进行降序排序,并指定分区数为 4

val dataRDD1 = dataRDD.sortBy(num => num, false, 4)

println("降序排序后 RDD 的内容:")

dataRDD1.collect().foreach(println)

// 使用 sortBy 方法进行升序排序,并指定分区数为 4

val dataRDD2 = dataRDD.sortBy(num => num, true, 4)

println("升序排序后 RDD 的内容:")

dataRDD2.collect().foreach(println)

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}

双Value类型:
  1. intersection

import org.apache.spark.SparkContext

import org.apache.spark.SparkConf

object IntersectionExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置应用名称和运行模式

val conf = new SparkConf().setAppName("IntersectionExample").setMaster("local[*]")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(conf)

// 创建第一个 RDD

val dataRDD1 = sparkContext.makeRDD(List(1, 2, 3, 4))

// 创建第二个 RDD

val dataRDD2 = sparkContext.makeRDD(List(3, 4, 5, 6))

// 求两个 RDD 的交集

val dataRDD = dataRDD1.intersection(dataRDD2)

// 输出交集结果

println("两个 RDD 的交集结果为:")

dataRDD.collect().foreach(println)

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}

  1. union

import org.apache.spark.SparkContext

import org.apache.spark.SparkConf

object UnionExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置应用名称和运行模式

val conf = new SparkConf().setAppName("UnionExample").setMaster("local[*]")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(conf)

// 创建第一个 RDD

val dataRDD1 = sparkContext.makeRDD(List(1, 2, 3, 4))

// 创建第二个 RDD

val dataRDD2 = sparkContext.makeRDD(List(3, 4, 5, 6))

// 求两个 RDD 的并集

val dataRDD = dataRDD1.union(dataRDD2)

// 输出并集结果

println("两个 RDD 的并集结果为:")

dataRDD.collect().foreach(println)

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}

15)Subtract

import org.apache.spark.SparkContext

import org.apache.spark.SparkConf

object SubtractExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置应用名称和运行模式

val conf = new SparkConf().setAppName("SubtractExample").setMaster("local[*]")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(conf)

// 创建第一个 RDD

val dataRDD1 = sparkContext.makeRDD(List(1, 2, 3, 4))

// 创建第二个 RDD

val dataRDD2 = sparkContext.makeRDD(List(3, 4, 5, 6))

// 求两个 RDD 的差集

val dataRDD = dataRDD1.subtract(dataRDD2)

// 输出差集结果

println("两个 RDD 的差集结果为:")

dataRDD.collect().foreach(println)

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}

  1. zip

import org.apache.spark.SparkContext

import org.apache.spark.SparkConf

object ZipExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置应用名称和运行模式

val conf = new SparkConf().setAppName("ZipExample").setMaster("local[*]")

// 创建 SparkContext 对象

val sparkContext = new SparkContext(conf)

// 创建第一个 RDD

val dataRDD1 = sparkContext.makeRDD(List("a", "b", "c", "d"))

// 创建第二个 RDD

val dataRDD2 = sparkContext.makeRDD(List(1, 2, 3, 4))

// 使用 zip 方法将两个 RDD 合并

val dataRDD = dataRDD1.zip(dataRDD2)

// 输出合并后的结果

println("两个 RDD 合并后的结果为:")

dataRDD.collect().foreach(println)

// 停止 SparkContext,释放资源

sparkContext.stop()

}

}

Key-Value类型:
  1. partitionBy

import org.apache.spark.{HashPartitioner, SparkConf, SparkContext}

import org.apache.spark.rdd.RDD

object PartitionByExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置应用名称和运行模式

val conf = new SparkConf().setAppName("PartitionByExample").setMaster("local[*]")

// 创建 SparkContext 对象

val sc = new SparkContext(conf)

// 创建一个包含键值对的 RDD,并指定分区数为 3

val rdd: RDD[(Int, String)] = sc.makeRDD(Array((1, "aaa"), (2, "bbb"), (3, "ccc")), 3)

// 打印原始 RDD 的分区数

println(s"原始 RDD 的分区数: ${rdd.partitions.length}")

// 使用 partitionBy 方法,通过 HashPartitioner 将 RDD 重新分区为 2 个分区

val rdd2: RDD[(Int, String)] = rdd.partitionBy(new HashPartitioner(2))

// 打印重新分区后 RDD 的分区数

println(s"重新分区后 RDD 的分区数: ${rdd2.partitions.length}")

// 输出重新分区后每个分区的内容

rdd2.mapPartitionsWithIndex { (index, iter) =>

val partitionData = iter.toList

println(s"分区 index 的内容: {partitionData.mkString(", ")}")

partitionData.iterator

}.collect()

// 停止 SparkContext,释放资源

sc.stop()

}

}

  1. groupByKey

import org.apache.spark.{HashPartitioner, SparkConf, SparkContext}

import org.apache.spark.rdd.RDD

object GroupByKeyExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置应用名称和运行模式

val conf = new SparkConf().setAppName("GroupByKeyExample").setMaster("local[*]")

// 创建 SparkContext 对象

val sc = new SparkContext(conf)

// 创建一个包含键值对的 RDD

val dataRDD1: RDD[(String, Int)] = sc.makeRDD(List(("a", 1), ("b", 2), ("c", 3), ("a", 4)))

// 打印原始 RDD 的内容

println("原始 RDD 的内容:")

dataRDD1.collect().foreach(println)

// 使用 groupByKey() 进行分组

val dataRDD2 = dataRDD1.groupByKey()

println("使用 groupByKey() 分组后的结果:")

dataRDD2.collect().foreach(println)

// 使用 groupByKey(2) 进行分组,指定分区数为 2

val dataRDD3 = dataRDD1.groupByKey(2)

println("使用 groupByKey(2) 分组后的结果:")

dataRDD3.collect().foreach(println)

// 使用 groupByKey(new HashPartitioner(2)) 进行分组,指定分区器

val dataRDD4 = dataRDD1.groupByKey(new HashPartitioner(2))

println("使用 groupByKey(new HashPartitioner(2)) 分组后的结果:")

dataRDD4.collect().foreach(println)

// 停止 SparkContext,释放资源

sc.stop()

}

}

  1. reduceByKey

import org.apache.spark.SparkConf

import org.apache.spark.SparkContext

import org.apache.spark.rdd.RDD

object ReduceByKeyExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置应用名称和运行模式

val conf = new SparkConf().setAppName("ReduceByKeyExample").setMaster("local[*]")

// 创建 SparkContext 对象

val sc = new SparkContext(conf)

// 创建包含键值对的 RDD

val dataRDD1: RDD[(String, Int)] = sc.makeRDD(List(("a", 1), ("b", 2), ("c", 3), ("a", 4)))

// 输出原始 RDD 的内容

println("原始 RDD 的内容:")

dataRDD1.collect().foreach(println)

// 使用 reduceByKey(_ + _) 进行聚合操作

val dataRDD2: RDD[(String, Int)] = dataRDD1.reduceByKey(_ + _)

println("使用 reduceByKey(_ + _) 聚合后的内容:")

dataRDD2.collect().foreach(println)

// 使用 reduceByKey(_ + _, 2) 进行聚合操作,并指定分区数为 2

val dataRDD3: RDD[(String, Int)] = dataRDD1.reduceByKey(_ + _, 2)

println("使用 reduceByKey(_ + _, 2) 聚合后的内容:")

dataRDD3.collect().foreach(println)

// 停止 SparkContext,释放资源

sc.stop()

}

}

20)aggregateByKey

import org.apache.spark.SparkConf

import org.apache.spark.SparkContext

import org.apache.spark.rdd.RDD

object AggregateByKeyExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置应用名称和运行模式

val conf = new SparkConf().setAppName("AggregateByKeyExample").setMaster("local[*]")

// 创建 SparkContext 对象

val sc = new SparkContext(conf)

// 创建包含键值对的 RDD

val dataRDD1: RDD[(String, Int)] = sc.makeRDD(List(("a", 1), ("b", 2), ("c", 3), ("a", 4)))

// 输出原始 RDD 的内容

println("原始 RDD 的内容:")

dataRDD1.collect().foreach(println)

// 使用 aggregateByKey 进行聚合操作

val dataRDD2: RDD[(String, Int)] = dataRDD1.aggregateByKey(0)(_ + _, _ + _)

// 输出聚合后的内容

println("使用 aggregateByKey 聚合后的内容:")

dataRDD2.collect().foreach(println)

// 停止 SparkContext,释放资源

sc.stop()

}

}

  1. foldByKey

import org.apache.spark.SparkConf

import org.apache.spark.SparkContext

import org.apache.spark.rdd.RDD

object FoldByKeyExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置应用名称和运行模式

val conf = new SparkConf().setAppName("FoldByKeyExample").setMaster("local[*]")

// 创建 SparkContext 对象

val sc = new SparkContext(conf)

// 创建包含键值对的 RDD

val dataRDD1: RDD[(String, Int)] = sc.makeRDD(List(("a", 1), ("b", 2), ("c", 3), ("a", 4)))

// 输出原始 RDD 的内容

println("原始 RDD 的内容:")

dataRDD1.collect().foreach(println)

// 使用 foldByKey 进行聚合操作

val dataRDD2: RDD[(String, Int)] = dataRDD1.foldByKey(0)(_ + _)

// 输出聚合后的内容

println("使用 foldByKey 聚合后的内容:")

dataRDD2.collect().foreach(println)

// 停止 SparkContext,释放资源

sc.stop()

}

}

22)combineByKey

import org.apache.spark.SparkConf

import org.apache.spark.SparkContext

import org.apache.spark.rdd.RDD

object CombineByKeyExample {

def main(args: Array[String]): Unit = {

// 创建 SparkConf 对象,设置应用名称和运行模式

val conf = new SparkConf().setAppName("CombineByKeyExample").setMaster("local[*]")

// 创建 SparkContext 对象

val sc = new SparkContext(conf)

// 定义数据列表

val list: List[(String, Int)] = List(("a", 88), ("b", 95), ("a", 91), ("b", 93), ("a", 95), ("b", 98))

// 创建 RDD

val input: RDD[(String, Int)] = sc.makeRDD(list, 2)

// 使用 combineByKey 进行聚合操作

val combineRDD: RDD[(String, (Int, Int))] = input.combineByKey(

(_, 1), // 将当前值作为参数进行附加操作并返回,初始时将值和计数设为 (value, 1)

(acc: (Int, Int), v) => (acc._1 + v, acc._2 + 1), // 在分区内部进行,将新元素 v 合并到第一步操作得到的结果中

(acc1: (Int, Int), acc2: (Int, Int)) => (acc1._1 + acc2._1, acc1._2 + acc2._2) // 将分区内部计算的结果进行分区间的汇总计算

)

// 输出原始 RDD 的内容

println("原始 RDD 的内容:")

input.collect().foreach(println)

// 输出聚合后的内容

println("使用 combineByKey 聚合后的内容:")

combineRDD.collect().foreach(println)

// 停止 SparkContext,释放资源

sc.stop()

}

}

相关推荐
IT成长日记1 小时前
【Hadoop入门】Hadoop生态之Spark简介
大数据·hadoop·spark
BenBen尔1 天前
在spark中,窄依赖算子map和filter会组合为一个stage,这种情况下,map和filter是在一个task内进行的吗?
大数据·分布式·spark
hhXx_琉璃1 天前
如何启动spark
大数据·服务器·spark
苏小夕夕1 天前
spark(二)
大数据·分布式·spark
星辰瑞云1 天前
spark-core编程2
大数据·分布式·spark
吹35度风1 天前
Spark-Core编程
spark·scala·idea
企鹅不耐热.1 天前
Spark-Core编程2
大数据·分布式·spark
小冻梨!!!1 天前
aspark 配置2
spark
Gvemis⁹2 天前
Spark Core(二)
大数据·分布式·spark
炒空心菜菜2 天前
spark数据清洗案例:流量统计
大数据·分布式·spark