详解 Spark核心编程之广播变量

广播变量是分布式共享只读变量

一、广播变量功能

​ 广播变量用来将一个较大的数据对象发送到 Executor 并保存在内存中,同一个 Executor 中的所有 Task 都可以读取且只能读取广播变量中的数据,从而达到共享的目的,避免 Executor 中存在大量冗余的数据

二、使用

scala 复制代码
object TestRDDBroadcast {
    def main(args: Array[String]): Unit = {
        val conf = new SparkConf().setMaster("local[*]").setAppName("WCAcc")
    	val sc = new SparkContext(conf)
        
        val rdd = sc.makeRDD(List(
        	("a", 1), ("b", 2), ("c", 3)
        ))
        
        val map = mutable.Map(("a", 4), ("b", 5), ("c", 6))
        
        // 封装广播变量
        val bc: Broadcast[mutable.Map[String, Int]] = sc.broadcast(map)
        
        rdd.map(word match {
            case (w, c) => {
                // 访问广播变量值
                val n = bc.value.getOrElse(w, 0)
                (w, (c, n))
            }
        }).collect().foreach(println)
        
        sc.stop()
        
    }
}
相关推荐
菜鸟冲锋号16 分钟前
Flink SQL、Hudi 、Doris在数据上的组合应用
大数据·flink
尘世壹俗人39 分钟前
hadoop.proxyuser.代理用户.授信域 用来干什么的
大数据·hadoop·分布式
白露与泡影1 小时前
基于Mongodb的分布式文件存储实现
分布式·mongodb·wpf
元6332 小时前
Spark处理过程-案例数据清洗
spark
鸿乃江边鸟2 小时前
Starrocks的主键表涉及到的MOR Delete+Insert更新策略
大数据·starrocks·sql
追风赶月、2 小时前
【Redis】redis用作缓存和分布式锁
redis·分布式·缓存
boring_1113 小时前
Apache Pulsar 消息、流、存储的融合
分布式·后端
Will_11303 小时前
kafka调优
分布式·kafka
maozexijr4 小时前
Flink 的任务槽和槽共享
大数据·flink
问道飞鱼4 小时前
【大数据知识】今天聊聊Clickhouse部署方案
大数据·clickhouse·部署