[spark面试]spark与mapreduce的区别---在DAG方面

1、spark中的task是以线程实现的,而mapreduce中是以进程实现的。

进程的频繁启动和停止会增加资源的消耗。

2、spark中支持DAG,而mapreduce不支持DAG

DAG的使用:为什么支持DAG会更加高效

1)、在DAG图中,会将一个job划分为不同的stage,同一个stage会在内存中进行转换,而不同stage之间需要进行shuffle过程,否则对于spark来说,他并不知道哪一个RDD之间的转换需要使用磁盘。------即第三个区别

2)、spark的lazy模式(惰性求值),就是基于DAG图实现的,因为DAG图中存放了task中的血缘关系。

lazy模式的优点:

1、可以**减少数据传输和计算开销,**例如,多个转换操作可以在一次计算中并行执行,避免了多次中间结果的生成和传输。

2、优化执行计划: Spark 可以在执行时分析整个计算图,并应用各种优化技术,如 管道化(Pipelining)合并操作(Operation Fusion)

  1. spark的宽窄依赖和DAG的相互配合可以在某一个分区的数据丢失时,快速恢复,不需要从头开始。

若在一个stage中的有某一个分区的数据丢失,可以通过DAG和窄依赖(父RDD分区的数据只传递给子RDD的某一个分区)对该分区的数据进行回溯,当然若是跨了多个stage,就麻烦了。

3、spark主要是基于一个内存的引擎,而mapreduce是基于磁盘的。

相关推荐
卢傢蕊2 分钟前
FastDFS 分布式存储
分布式·fastdfs
HookJames20 分钟前
设计Section 08 · Applications & Project Scenarios
大数据
olivesun8840 分钟前
20万元 · 1年期 · A股组合投资方案
大数据·人工智能·物联网
alxraves1 小时前
医疗器械质量管理体系信息系统的需求
大数据·安全·健康医疗·制造
ai大模型中转api测评1 小时前
开发者接入实战:GPT-5.5 API 深度调优、推理策略与工程化降本指南
大数据·人工智能·gpt
YMatrix 官方技术社区1 小时前
全栈向量化 + 库内流计算:YMatrix 亮相 Postgres Conference 2026,双引擎重塑 AGI 时代 PostgreSQL 性能底座
大数据·postgresql·agi·ymatrix·超融合数据库
AI科技星1 小时前
算子数学|独立完整学科章节(百条原创公式· ROOT传世定稿)
大数据·算法·机器学习·数学建模·数据挖掘·量子计算
菜鸟小码1 小时前
Hadoop大数据时代的底座和基石
大数据·hadoop·分布式
隐于花海,等待花开2 小时前
18.TRUNC / LAST_DAY / NEXT_DAY 函数深度解析
大数据·hive
独隅2 小时前
Git误操作急救手册
大数据·git·elasticsearch