spark运行流程

spark运行流程

  1. 任务提交后,先启动 Driver 程序
  2. 随后 Driver 向集群管理器注册应用程序
  3. 集群管理器根据此任务的配置文件分配 Executor 并启动
  4. Driver 开始执行 main 函数,Spark 查询为懒执行,当执行到 Action 算子时开始反向推
    算,根据宽依赖进行 Stage 的划分,随后每一个 Stage 对应一个 Taskset,Taskset 中有多个 Task
  5. 查找可用资源 Executor 进行调度
  6. 根据本地化原则,Task 会被分发到指定的 Executor 去执行
  7. 任务执行的过程中,Executor 也会不断与 Driver 进行通信,报告任务运行情况
    进行通信,报告任务运行情况
相关推荐
weixin_307779133 小时前
Spark Streaming的背压机制的原理与实现代码及分析
大数据·python·spark
想做富婆7 小时前
hive:基本数据类型,关于表和列语法
大数据·hive·hadoop
梦醒沉醉8 小时前
单机伪分布Hadoop详细配置
大数据·hadoop·分布式
小Tomkk9 小时前
大数据相关职位介绍之一(数据分析,数据开发,数据产品经理,数据运营)
大数据·数据分析·数据开发·数据运营·数据产品经理
UI设计兰亭妙微9 小时前
大屏 UI 设计风格的未来趋势
大数据
优人ovo13 小时前
Kafka的消息协议
分布式·网络协议·kafka
乙卯年QAQ14 小时前
【Elasticsearch】Elasticsearch的查询
大数据·elasticsearch·搜索引擎
XianxinMao15 小时前
科技巨头AI投资引领未来增长
大数据·人工智能·科技
言之。15 小时前
【Spark速通】
大数据·分布式·spark