PySpark学习笔记4-共享变量,内核调度

共享变量

解决方案一-广播变量

将本地列表标记成广播变量

可以实现降低内存占用和减少网络IO传输,提高性能

python 复制代码
boradcast = sc.boardcast(stu_info_list)
value = broadcast.value

解决方案二-累加器

python 复制代码
acmlt = sc.accumulator(0)

可以收集执行器的执行结果并作用在自己的身上
Spark内核调度

DAG:有向五环图

一个action会产生一个DAG

一个DAG运行会产生一个job

一个代码运行起来包含叫做Application,包含多job

DAG和分区关联后,可以得到有分区关系的DAG图
DAG的宽窄依赖和阶段划分

窄依赖:父RDD的一个分区,将全部数据发给子RDD的一个分区

宽依赖: 父RDD的一个分区会将数据发给子RDD的多个分区

宽依赖还有一个别名shuffle

对于Spark过程,会按照宽依赖划分不同的DAG阶段,从后向前,遇到一个宽依赖就换分出一个阶段,成为stage,二每个stage的内部一定都是窄依赖
面试题1

spark怎么做内存计算的?DAG的作用?stage阶段划分的作用?

spark会使用DAG图进行内存计算,DAG图会根据分区和宽窄依赖划分阶段,每一个阶段饿的内部都是窄依赖,这些内存迭代计算的管道形成一个个具体的执行任务,一个任务对应一个线程,任务在线程中运行,就是在进行内存计算。
面试题2

spark为什么mapreduce计算效率快?

spark的算子丰富,mapreduce算子匮乏,很多复杂的人物需要多个mapreduc进行串联,通过磁盘交互数据

spark可以执行内存迭代,听过形成DAG并基于依赖划分阶段后,在阶段内可以形成内存迭代管道,但是map使用硬盘进行交互的,spark可以使用更多的内存计算而不是磁盘迭代

spark程序的调度流程如图所示

1.driver被构建出来

2.构建spark Context:执行环境入口对象

3.基于DAG调度器构建逻辑任务分配

4.基于任务调度器将逻辑任务分配到各个执行器上干活,并监控他们

5.执行器被任务调度器监控,听从他们的指令工作,并定期汇报工作进度

driver的两个重要组件:DAG调度器和task调度器

相关推荐
●VON2 小时前
React Native for OpenHarmony:2048 小游戏的开发与跨平台适配实践
javascript·学习·react native·react.js·von
山岚的运维笔记2 小时前
SQL Server笔记 -- 第18章:Views
数据库·笔记·sql·microsoft·sqlserver
ZH15455891312 小时前
Flutter for OpenHarmony Python学习助手实战:自动化脚本开发的实现
python·学习·flutter
xcLeigh2 小时前
Python入门:Python3 requests模块全面学习教程
开发语言·python·学习·模块·python3·requests
xcLeigh2 小时前
Python入门:Python3 statistics模块全面学习教程
开发语言·python·学习·模块·python3·statistics
GHL2842710903 小时前
分析式AI学习
人工智能·学习·ai编程
lpruoyu3 小时前
【Android第一行代码学习笔记】Android架构_四大组件_权限_持久化_通知_异步_服务
android·笔记·学习
野犬寒鸦3 小时前
从零起步学习并发编程 || 第六章:ReentrantLock与synchronized 的辨析及运用
java·服务器·数据库·后端·学习·算法
wdfk_prog3 小时前
[Linux]学习笔记系列 -- [drivers][mmc][mmc_sdio]
linux·笔记·学习
果果燕3 小时前
今日学习笔记:双向链表、循环链表、栈
笔记·学习·链表