Spark Job 调度机制拆解:从 Action 算子到 Task 执行

搞 Spark 开发的同学,多多少少都会遇到这些问题:一个 Action 到底触发了几个 Job?Stage 是怎么划分的?Task 数量又是谁决定的?

这篇文章把 Spark Job 调度里的几个核心概念捋一遍,帮大家建立一个清晰的认知框架。


什么是 Job 调度

简单说,Spark 的 Job 调度就是框架底层根据 RDD 的逻辑链条,划分 Stage → 生成 Task → 提交执行的整个过程。

几个关键概念

Application

创建一个 SparkContext,就对应一个 Application。一个 Spark 程序通常就是一个 Application。

Job

大家常说"一个 Action 算子触发一个 Job",这个说法直观但不够精确,实际情况要复杂一些:

  • 有些 Action 算子会触发多个 Job,比如 take()
  • 有些 Transformation 算子也会触发 Job,比如 sortByKey(),因为它内部用了 RangePartitioner,需要先采样

准确的定义是:触发一次 sc.runJob() 就是一个 Job,本质上就是一个 DAG 运算流程。

DAG

DAG(Directed Acyclic Graph),有向无环图。它描述的是一系列 RDD 之间的转换关系,可以理解为一张"执行蓝图"。

Stage

Shuffle 为分界线,把 DAG 从整体切成若干段,每一段就是一个 Stage。

为什么要这么切?因为同一个 Stage 内的 RDD 计算逻辑,可以放在一个 Task 里流水线执行(pipeline),不需要落盘,效率最高。而一旦碰到 Shuffle,数据要重新分发,就必须断开。

Task 和 TaskSet

每个 Stage 包含一段计算逻辑,这段逻辑需要提交到集群上并行跑。每个并行执行的实例就是一个 Task ,一个 Stage 生成的这批 Task 叫做 TaskSet

几个要点:

  • 同一个 TaskSet 里所有 Task 的计算逻辑完全相同,区别只是各自负责的数据分区不同
  • TaskSet 中 Task 的数量 = 该 Stage 最后一个 RDD 的分区数
  • Task 本质上是一个类,封装了调用 RDD 迭代器 + 输出计算结果的代码

两种 Task 类型

Spark 内部的 Task 分为两种:

类型 说明
ShuffleMapTask 非最终 Stage 产生的 Task,负责把计算结果按分区规则写到本地磁盘,供下游 Stage 拉取
ResultTask 最终 Stage 产生的 Task,负责把结果返回给 Driver 或写到外部存储

整体串一遍

用一句话概括整个流程:

Action 触发 Job → Job 按 Shuffle 边界切分成多个 Stage → 每个 Stage 根据分区数生成 TaskSet → Task 提交到 Executor 上执行

理解了这个链路,再去看 Spark UI 上的 Job / Stage / Task 页面,就不会一脸懵了。


以上就是 Spark Job 调度的核心概念,东西不多但容易混淆。建议结合 Spark UI 实际跑几个任务看看,体感会更深。

相关推荐
tctasia3 小时前
TCT Asia 2026现场观察:中国增材制造,已经进入“规模化时刻”(上)
大数据·人工智能·制造
疯狂成瘾者3 小时前
产品经理职业变迁
大数据·产品经理
Data-Miner4 小时前
51页可编辑PPT | 农产品区块链溯源信息化平台整体解决方案
大数据
智慧医院运行管理解决方案专家5 小时前
中科医信杜鹏:「数据驱动,孪生赋能」,数据资产是医院智慧管理的核心要素之一
大数据·人工智能·数字孪生·智慧医工管理
珠海西格电力5 小时前
鄂尔多斯零碳产业园管理系统的核心功能解析
大数据·运维·人工智能·物联网·能源
Yolo566Q5 小时前
基于Python语言快速批量运行DSSAT模型及交叉融合、扩展应用技术应用
大数据·人工智能
KuAI_KST5 小时前
2026 抖音私信 AI 客服实战手册:快商通 AI 与人工回复转化对比实测
大数据·人工智能·机器学习
A_QXBlms6 小时前
企微私域工具SOP自动化实战:3条核心流程配置教程
大数据·自动化·企业微信
NOCSAH6 小时前
体验统好AI租赁管理:业务闭环与智能数据决策
大数据·人工智能·统好ai
Gofarlic_OMS6 小时前
SolidEdge专业许可证管理工具选型关键评估标准
java·大数据·运维·服务器·人工智能