Spark运行架构

1.Spark比较Hive

由于MapReduce只适合做离线,计算复杂逻辑,存储到HDFS中的时间会比较长,会很效率底下。如果将一个MR的输出作为一个MR的输入频繁的读写HDFS会很耗费时间和IO资源。

Spark既可以做离线,也可以做实时,提供了抽象的数据集,有API算子,丰富的算子,并且使用了更先进的 DAG 有向无环图调度思想,可以对执行计划优化后再执行,并且数据可以缓存到内存中进行复用(通过控制算子)。Spark中多个作业之间的数据通信是基于内存(Spark 中除了基于内存计算这一个计算快的原因,还有 DAG 有向无环图来切分任务的执行先后顺序),而 MR 是基于磁盘。 Spark不具有存储的能力,存储是在HDFS中。Spark是可以替代MR的计算框架,还可以用SparkSQL替换Hive的查询框架。Spark 是基于内存的,所以在实际的生产环境中,由于内存的限制,可能会由于内存资源不足导致 Job 执行失败。此时,MapReduce 其实是一个更好的选择,所以 Spark 并不能完全替代 MR。

特点

:计算不走MR会,基于内存会快不止100倍,基于磁盘快10倍以上

易用性:Spark 支持 Scala、Java、Python、R 和 SQL 多种语言,还支持超过 80 种高级算法,使用户可以快速构建不同的应用。

通用:Spark 提供了统一的解决方案。Spark 可以用于批处理(Spark Core)、交互式查询(Spark SQL)、实时流处理

(Spark Streaming)、机器学习(Spark MLlib)和图计算(GraphX)。

2.运行架构

启动集群,Worker节点向Master汇报资源情况(CPU和内存)

Client提交Application,根据不同的运行模式在不同的位置创建Driver进程。

Application中创建SparkContext链接Mater,并注册申请资源。

Mater根据Worker汇报的资源情况,分配资源Executer;

Worker像Driver反向注册,资源准备好,可以开始执行进程。

SparkContext解析Application代码,创建RDD,构建DAG有向图。

DAGScheduler 分解成 Stage(Shuffle),当碰到执行算子时,产生Job(一个Job中有一个或多个Stage),Stage分区数据(Task)提交给分配到的Work中的Executor中

最后Excutor启动多线程计算

计算处理后告诉SparkContext,SparkContext告知Mater数据处理完毕,可以注销,然后释放资源。

2.1资源申请粒度

粗粒度资源申请(Spark)

在执行Application之前申请好资源,给任务调度,所有的Task执行完成之后才会释放这些资源。。

**优点:**任务启动快,执行快,Stage快,Job快,Application的执行也快。

**缺点:**最后一个Task执行完了之后才会释放资源,资源利用的不充分

细粒度资源申请

让 Job 中的每一个 Task 在执行前自己去申请资源, Task 执行完成就立刻释放资源。

优点:集群的资源可以充分的利用。

缺点:Task自己申请资源,Task变慢了,Application也就慢了。

2.1Local本地模式

在本地执行 Spark 代码的环境,本地模式就是一个独立的进程,通过其内部的多个线程来模拟整个 Spark 运行时环境,每个线程代表一个 Worker。

2.2Standalone

Spark自带的集群模式,

Standalone CLient

在 Standalone Client 模式下,如果在 Master 上提交应用,那么 Driver 就在 Master;如果在 Worker 上提交应用,那么Driver 就在 Worker,如果直接在自己的 PC 上提交应用,比如在 IDEA 中使用 val sc = new SparkContext("spark://node01:7077","AppName") 去连接 Master 的话,Driver 就在自己的 PC 上,但是不推荐这样的方式,因为 PC 和 Workers 可能不在一个局域网,Driver 和 Executor 之间的通信会很慢。

Standalone CLuster

Standalone Cluster 模式下,任务提交后,* *Master** 会找到一个 Worker 启动 Driver 进程 ,这时候Driver在Work中。

YARN模式

YARN 是 Hadoop 的资源调度框架,Spark 也可以基于 YARN 来计算(将 Spark 应用提交到 YARN 上运行)。Spark 客户

端直接连接 YARN,不需要额外构建 Spark 集群,国内使用较多。Spark 中的各个角色运行在 YARN 的容器内部,并组成Spark 集群环境。

YARNClient

YARN Client 模式下,* *Driver** 在应用提交的本地机器上运行

YARN Cluster
相关推荐
王小王-1231 小时前
基于Hadoop的全国农产品批发价格数据分析与可视化与价格预测研究
大数据·hive·hadoop·flume·hadoop农产品价格分析·农产品批发价格·农产品价格预测
阿Paul果奶ooo5 小时前
Flink概述
大数据·flink
CDA数据分析师干货分享5 小时前
【CDA 新一级】学习笔记第1篇:数据分析的时代背景
大数据·笔记·学习·数据分析·cda证书·cda数据分析师
博一波5 小时前
【车联网kafka】Kafka核心架构与实战经验(第四篇)
架构
熊猫钓鱼>_>6 小时前
腾讯云EdgeOne KV存储在游戏资源发布中的技术实践与架构解析
游戏·架构·腾讯云
软件开发小陈6 小时前
“我店模式”:零售转型中的场景化突围
大数据
计算机毕业设计木哥7 小时前
基于大数据spark的医用消耗选品采集数据可视化分析系统【Hadoop、spark、python】
大数据·hadoop·python·信息可视化·spark·课程设计
xiao-xiang8 小时前
elasticsearch mapping和template解析(自动分词)!
大数据·elasticsearch·搜索引擎
sleetdream8 小时前
Flink DataStream 按分钟或日期统计数据量
大数据·flink