spark广播变量

广播变量应用场景

由于spark的应用场景通常是分布式场景,在本地集合和分布式集合关联,且本地集合不太大的场景,rdd的处理是在不同的executor中不同的分区处理的,我们定义的全局变量通常是在driver中的,在executor中并没有,因此spark通过广播变量这种形式,可以把开发者定义的广播变量通过网络传输的方式,传第到每个executor中每个线程处理的分区中,同时,由于同一个executor中可能处理不止一个分区,为了节省内存,只会传输给其中一个线程,其他线程想要访问时,会先去找除自身外的线程是否已经存在广播变量,有则不再传输。

广播变量的使用很简单,将本地集合标识为广播变量即可,下面我们来看一个案例:

python 复制代码
#使用方式:
#1.将本地ist标记成广播变量即可
broadcast = sc.broadcast(stu_info_list)
#2.使用广播变量,从broadcast对象中取出本地list对象即可
value broadcast.value
# 也就是先放进去broadcast内部,然后从broadcast内部在取出来用,中间传输的是broadcast:这个对象了
#只要中间传输的是broadcast对象sparki就会留意,只会给每个Executor发一份了,而不是傻傻的哪个分区要都给.
python 复制代码
coding:utf8
import ...
if __name__ == '__main__':
    conf = SparkConf).setAppName("test").setMaster("local[*]")
    sc = SparkContext(conf=conf)
    stu_info_list = [(1,'张大仙',11),
                     (2,'王晓晓',13),
                     (3,'张甜甜',11),
                     (4,'王大力',11)]
    #1.将本地Python List对象标记为广播变量,不标记实际上每个分区也拿的到但会有内存浪费
    broadcast = sc.broadcast(stu_info_list)
    score_info_rdd = sc.parallelize([
        (1,'语文',99),
        (2,'数学',99),
        (3,'英语',99),
        (4,'编程',99),
        (1,'语文',99),
        (2,'编程',99),
        (3,'语文',99),
        (4,'英语',99),
        (1,'语文',99),
        (3,'英语',99),
        (2,'编程',99)
    ])

    def map_func(data):
        id = data[e]
        name = ""
        #匹配本地list和分布式rdd中的学生ID匹配成功后即可获得当前学生的姓名
        for stu_info in stu_info_list:
            stu_id = stu_info[0]
            if id == stu_id:
               name stu_info[1]
        return (name,data[1],data[2])
    print(score_info_rdd.map(map_func).collect())
      

此外,实际上所有广播变量的方式,都可以用两个rdd之间的join操作来实现同样的结构,如上面将stu_info_list也定义成rdd,但这样会造成数据的一个shuffle,如下,通过id匹配的话会发生多次网络传输,因此我们在本地数据集比较小的时候,可以通过广播变量进行优化,但数据集大时,还是需要分布式操作来加速

相关推荐
青云交几秒前
Java 大视界 -- Java+Spark 构建企业级用户画像平台:从数据采集到标签输出全流程(437)
java·开发语言·spark·hbase 优化·企业级用户画像·标签计算·高并发查询
音符犹如代码2 分钟前
ZooKeeper 实战指南:从入门到场景解析
分布式·微服务·zookeeper·云原生·中间件·架构
树下水月6 分钟前
Easyoole 使用rdkafka 进行kafka的创建topic创建 删除 以及数据发布 订阅
分布式·kafka
AI营销资讯站8 分钟前
原圈科技AI营销内容生产体系助力企业降本提效新变革
大数据·人工智能
原神启动110 分钟前
Nginx云计算大数据——安装AND版本升级(普通升级+平滑升级+失败回滚)
大数据·nginx·云计算
qq_124987075311 分钟前
基于spark的新闻文本分类系统(源码+论文+部署+安装)
大数据·分类·数据挖掘·spark
存储国产化前线13 分钟前
国产工业级存储进阶之路:从自主可控主控到可靠可用的全链路突围
大数据·人工智能·物联网
AI营销先锋18 分钟前
原圈科技赋能AI市场舆情分析,推动企业智能化决策变革
大数据·人工智能
老蒋新思维20 分钟前
创客匠人观察:知识IP的下一站——与AI智能体共生的“人机协同”模式
大数据·人工智能·网络协议·tcp/ip·重构·创始人ip·创客匠人
hh.h.36 分钟前
灰度发布与A/B测试:Flutter+鸿蒙的分布式全量发布方案
分布式·flutter·harmonyos