Spark Job 调度机制拆解:从 Action 算子到 Task 执行

搞 Spark 开发的同学,多多少少都会遇到这些问题:一个 Action 到底触发了几个 Job?Stage 是怎么划分的?Task 数量又是谁决定的?

这篇文章把 Spark Job 调度里的几个核心概念捋一遍,帮大家建立一个清晰的认知框架。


什么是 Job 调度

简单说,Spark 的 Job 调度就是框架底层根据 RDD 的逻辑链条,划分 Stage → 生成 Task → 提交执行的整个过程。

几个关键概念

Application

创建一个 SparkContext,就对应一个 Application。一个 Spark 程序通常就是一个 Application。

Job

大家常说"一个 Action 算子触发一个 Job",这个说法直观但不够精确,实际情况要复杂一些:

  • 有些 Action 算子会触发多个 Job,比如 take()
  • 有些 Transformation 算子也会触发 Job,比如 sortByKey(),因为它内部用了 RangePartitioner,需要先采样

准确的定义是:触发一次 sc.runJob() 就是一个 Job,本质上就是一个 DAG 运算流程。

DAG

DAG(Directed Acyclic Graph),有向无环图。它描述的是一系列 RDD 之间的转换关系,可以理解为一张"执行蓝图"。

Stage

Shuffle 为分界线,把 DAG 从整体切成若干段,每一段就是一个 Stage。

为什么要这么切?因为同一个 Stage 内的 RDD 计算逻辑,可以放在一个 Task 里流水线执行(pipeline),不需要落盘,效率最高。而一旦碰到 Shuffle,数据要重新分发,就必须断开。

Task 和 TaskSet

每个 Stage 包含一段计算逻辑,这段逻辑需要提交到集群上并行跑。每个并行执行的实例就是一个 Task ,一个 Stage 生成的这批 Task 叫做 TaskSet

几个要点:

  • 同一个 TaskSet 里所有 Task 的计算逻辑完全相同,区别只是各自负责的数据分区不同
  • TaskSet 中 Task 的数量 = 该 Stage 最后一个 RDD 的分区数
  • Task 本质上是一个类,封装了调用 RDD 迭代器 + 输出计算结果的代码

两种 Task 类型

Spark 内部的 Task 分为两种:

类型 说明
ShuffleMapTask 非最终 Stage 产生的 Task,负责把计算结果按分区规则写到本地磁盘,供下游 Stage 拉取
ResultTask 最终 Stage 产生的 Task,负责把结果返回给 Driver 或写到外部存储

整体串一遍

用一句话概括整个流程:

Action 触发 Job → Job 按 Shuffle 边界切分成多个 Stage → 每个 Stage 根据分区数生成 TaskSet → Task 提交到 Executor 上执行

理解了这个链路,再去看 Spark UI 上的 Job / Stage / Task 页面,就不会一脸懵了。


以上就是 Spark Job 调度的核心概念,东西不多但容易混淆。建议结合 Spark UI 实际跑几个任务看看,体感会更深。

相关推荐
pingao1413781 天前
智联未来:4G温湿度传感器如何重塑数据监测新生.态
大数据·网络·人工智能
数新网络1 天前
告别“数据沼泽”,拥抱“活水湖”:数新智能基于CyberEngine与Apache Paimon的新一代数据湖仓架构
大数据
实习僧企业版1 天前
如何为中小企业点亮校招吸引力的灯塔
大数据·春招·雇主品牌·招聘技巧·口碑
塔能物联运维1 天前
高密度机柜满载怎么办?热管理的“最后一厘米”:两相液冷
大数据
王苏安说钢材A1 天前
无锡佳钛合不锈钢有限公司三通的焊接工艺
大数据
跨境卫士-小汪1 天前
旺季前成本项变多跨境卖家如何设定更稳的备货优先级
大数据·人工智能·产品运营·跨境电商·亚马逊
地球资源数据云1 天前
1951-2025年中国逐年1千米逐月总降水量区域统计数据集_年表_县
大数据·数据结构·数据库·数据仓库·人工智能
云飞云共享云桌面1 天前
精密机械制造工厂研发部门使用SolidWorks和ug,三维设计云桌面如何选择?
大数据·运维·服务器·网络·数据库·人工智能·制造
互联网推荐官1 天前
定制开发落地实践:D-coding 销售采购系统赋能上海多终端软件项目建设
大数据
千里念行客2401 天前
锚定AI赛道释放红利:安凯微2026年Q1业绩显成色
大数据·人工智能·科技·安全