package org.example
import org.apache.spark.{Partitioner, SparkConf, SparkContext}
case class Order(id: Int, price: Double, info: String) {
override def toString: String = s"$id, $price, $info"
}
class orderPartitioner extends Partitioner{
override def numPartitions: Int = 3
override def getPartition(key: Any): Int = {
//0-1000 => 1
//1001-2000 => 2
//3
if (key.asInstanceOf[Int] <= 1000) {
0
} else if (key.toString.toInt <= 2000) {
1
} else {
2
}
}
}
object PartitionOrder {
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setAppName("Partition").setMaster("local[*]")
val sc = new SparkContext(conf)
//读入data/order.csv 创建RDD
val orderRDD = sc.textFile("data/order.csv")
val rdd1 = orderRDD.map(line => {
val fields = line.split(",")
val order = Order(fields(0).toInt, fields(1).toDouble, fields(2))
(order.id, order)
})
val rdd2 = rdd1.partitionBy(new orderPartitioner)
rdd2.map(x => x._2).saveAsTextFile("data/output1")
rdd2.mapPartitions(iter => {
var count = 0
var sum = 0.0
iter.foreach(x => {
sum += x._2.price
count += 1
})
Iterator(s"${count}件, ${sum}元")
})saveAsTextFile("data/output2")
}
RDD-自定义分区器案例
懒惰的橘猫2025-05-14 9:26
相关推荐
一切皆是因缘际会2 小时前
AI数字分身的底层原理:破解意识、自我与人格复刻的核心难题上海光华专利事务所2 小时前
跨境电商商标专利管理平台Elastic 中国社区官方博客3 小时前
ES|QL METRICS_INFO 和 TS_INFO:为你的时间序列数据建立目录jinanwuhuaguo4 小时前
(第二十七篇)OpenClaw四月的演化风暴:OpenClaw 2026年4月全版本更新的文明级解读清晨0014 小时前
工业生产实时数据获取方案-TDengine极创信息5 小时前
信创产品认证怎么做?信创产品测试认证的主要流程Elastic 中国社区官方博客5 小时前
Elastic 和 Cursor 合作 加速 上下文工程 与 coding agentslzhdim5 小时前
SQL 入门 12:SQL 视图:创建、修改与可更新视图科研前沿6 小时前
镜像孪生VS视频孪生核心技术产品核心优势lizhihai_997 小时前
股市学习心得-六张分时保命图