package org.example
import org.apache.spark.{Partitioner, SparkConf, SparkContext}
case class Order(id: Int, price: Double, info: String) {
override def toString: String = s"$id, $price, $info"
}
class orderPartitioner extends Partitioner{
override def numPartitions: Int = 3
override def getPartition(key: Any): Int = {
//0-1000 => 1
//1001-2000 => 2
//3
if (key.asInstanceOf[Int] <= 1000) {
0
} else if (key.toString.toInt <= 2000) {
1
} else {
2
}
}
}
object PartitionOrder {
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setAppName("Partition").setMaster("local[*]")
val sc = new SparkContext(conf)
//读入data/order.csv 创建RDD
val orderRDD = sc.textFile("data/order.csv")
val rdd1 = orderRDD.map(line => {
val fields = line.split(",")
val order = Order(fields(0).toInt, fields(1).toDouble, fields(2))
(order.id, order)
})
val rdd2 = rdd1.partitionBy(new orderPartitioner)
rdd2.map(x => x._2).saveAsTextFile("data/output1")
rdd2.mapPartitions(iter => {
var count = 0
var sum = 0.0
iter.foreach(x => {
sum += x._2.price
count += 1
})
Iterator(s"${count}件, ${sum}元")
})saveAsTextFile("data/output2")
}
RDD-自定义分区器案例
懒惰的橘猫2025-05-14 9:26
相关推荐
TDengine (老段)7 分钟前
中原油田引入时序数据库 TDengine:写入性能提升、存储成本下降 85%财经资讯数据_灵砚智能8 分钟前
基于全球经济类多源新闻的NLP情感分析与数据可视化(日间)2026年4月12日Crazy CodeCrafter18 分钟前
现在做服装,实体和电商怎么选?2601_9544345522 分钟前
2026年专业深度测评:入门电钢琴品牌排名前五权威发布xixixi7777727 分钟前
通信产业的“全维度加速”:从5G-A商用、6G冲刺到卫星互联网密集组网Me4神秘12 小时前
国家级互联网骨干直联点及容量、互联网交换中心zandy101114 小时前
全链路可控+极致性能,衡石HENGSHI CLI重新定义企业级BI工具的AI协作能力果粒蹬i16 小时前
Elasticsearch 单机部署实测:安装流程、常见坑点与远程访问配置AC赳赳老秦16 小时前
OpenClaw数据库高效操作指南:MySQL/PostgreSQL批量处理与数据迁移实战小王毕业啦16 小时前
2006-2023年 省级-建成区绿化覆盖率数据(xlsx)