Spark Job 调度机制拆解:从 Action 算子到 Task 执行

搞 Spark 开发的同学,多多少少都会遇到这些问题:一个 Action 到底触发了几个 Job?Stage 是怎么划分的?Task 数量又是谁决定的?

这篇文章把 Spark Job 调度里的几个核心概念捋一遍,帮大家建立一个清晰的认知框架。


什么是 Job 调度

简单说,Spark 的 Job 调度就是框架底层根据 RDD 的逻辑链条,划分 Stage → 生成 Task → 提交执行的整个过程。

几个关键概念

Application

创建一个 SparkContext,就对应一个 Application。一个 Spark 程序通常就是一个 Application。

Job

大家常说"一个 Action 算子触发一个 Job",这个说法直观但不够精确,实际情况要复杂一些:

  • 有些 Action 算子会触发多个 Job,比如 take()
  • 有些 Transformation 算子也会触发 Job,比如 sortByKey(),因为它内部用了 RangePartitioner,需要先采样

准确的定义是:触发一次 sc.runJob() 就是一个 Job,本质上就是一个 DAG 运算流程。

DAG

DAG(Directed Acyclic Graph),有向无环图。它描述的是一系列 RDD 之间的转换关系,可以理解为一张"执行蓝图"。

Stage

Shuffle 为分界线,把 DAG 从整体切成若干段,每一段就是一个 Stage。

为什么要这么切?因为同一个 Stage 内的 RDD 计算逻辑,可以放在一个 Task 里流水线执行(pipeline),不需要落盘,效率最高。而一旦碰到 Shuffle,数据要重新分发,就必须断开。

Task 和 TaskSet

每个 Stage 包含一段计算逻辑,这段逻辑需要提交到集群上并行跑。每个并行执行的实例就是一个 Task ,一个 Stage 生成的这批 Task 叫做 TaskSet

几个要点:

  • 同一个 TaskSet 里所有 Task 的计算逻辑完全相同,区别只是各自负责的数据分区不同
  • TaskSet 中 Task 的数量 = 该 Stage 最后一个 RDD 的分区数
  • Task 本质上是一个类,封装了调用 RDD 迭代器 + 输出计算结果的代码

两种 Task 类型

Spark 内部的 Task 分为两种:

类型 说明
ShuffleMapTask 非最终 Stage 产生的 Task,负责把计算结果按分区规则写到本地磁盘,供下游 Stage 拉取
ResultTask 最终 Stage 产生的 Task,负责把结果返回给 Driver 或写到外部存储

整体串一遍

用一句话概括整个流程:

Action 触发 Job → Job 按 Shuffle 边界切分成多个 Stage → 每个 Stage 根据分区数生成 TaskSet → Task 提交到 Executor 上执行

理解了这个链路,再去看 Spark UI 上的 Job / Stage / Task 页面,就不会一脸懵了。


以上就是 Spark Job 调度的核心概念,东西不多但容易混淆。建议结合 Spark UI 实际跑几个任务看看,体感会更深。

相关推荐
wuyaolong0072 小时前
PostgreSQL 中进行数据导入和导出
大数据·数据库·postgresql
balmtv2 小时前
Claude技术架构深度拆解:从宪法AI到混合推理智能体的演进之路
大数据·人工智能·架构
Lab_AI3 小时前
电子实验记录本(ELN)助力熙华药业核心竞争力提升
大数据·人工智能·实验室管理·eln·药物研发·ai制药·电子实验记录本
hg01183 小时前
2026年非洲能源大会在南非开普敦开幕
大数据·能源
Hello.Reader3 小时前
Flink Task Lifecycle 一篇讲透 StreamTask 与 Operator 生命周期
java·大数据·flink
AC赳赳老秦4 小时前
智能协同新纪元:DeepSeek驱动的跨岗位、跨工具多智能体实操体系展望(2026)
大数据·运维·人工智能·深度学习·机器学习·ai-native·deepseek
blackorbird4 小时前
Palantir的战争AI:藏在美军Maven系统里的Claude大模型
java·大数据·人工智能·maven
wanhengidc4 小时前
服务器硬盘都有哪些功能
大数据·运维·服务器·数据库·科技
zy11934 小时前
AI排名优化公司 - 电商大促季如何通过AI可见率实现弯道超车
大数据·人工智能