[spark面试]spark与mapreduce的区别---在DAG方面

1、spark中的task是以线程实现的,而mapreduce中是以进程实现的。

进程的频繁启动和停止会增加资源的消耗。

2、spark中支持DAG,而mapreduce不支持DAG

DAG的使用:为什么支持DAG会更加高效

1)、在DAG图中,会将一个job划分为不同的stage,同一个stage会在内存中进行转换,而不同stage之间需要进行shuffle过程,否则对于spark来说,他并不知道哪一个RDD之间的转换需要使用磁盘。------即第三个区别

2)、spark的lazy模式(惰性求值),就是基于DAG图实现的,因为DAG图中存放了task中的血缘关系。

lazy模式的优点:

1、可以**减少数据传输和计算开销,**例如,多个转换操作可以在一次计算中并行执行,避免了多次中间结果的生成和传输。

2、优化执行计划: Spark 可以在执行时分析整个计算图,并应用各种优化技术,如 管道化(Pipelining)合并操作(Operation Fusion)

  1. spark的宽窄依赖和DAG的相互配合可以在某一个分区的数据丢失时,快速恢复,不需要从头开始。

若在一个stage中的有某一个分区的数据丢失,可以通过DAG和窄依赖(父RDD分区的数据只传递给子RDD的某一个分区)对该分区的数据进行回溯,当然若是跨了多个stage,就麻烦了。

3、spark主要是基于一个内存的引擎,而mapreduce是基于磁盘的。

相关推荐
pale_moonlight14 小时前
九、Spark基础环境实战(下)
大数据·javascript·spark
Francek Chen14 小时前
Francek Chen 的730天创作纪念日
大数据·人工智能·学习·程序人生·创作纪念日
A达峰绮14 小时前
从“运维技术”到“一键编排”,与Kurator在分布式云原生开源项目的实战经验
运维·分布式·云原生
笨手笨脚の14 小时前
Kafka-4 Kafka 中的消费者
分布式·kafka·消息队列·消费者·重平衡
EB_Coder14 小时前
2025前端面试题-JavaScript基础篇
前端·javascript·面试
老蒋新思维14 小时前
创客匠人 2025 峰会启示:AI 重构知识变现,从内容输出到资产运营
大数据·人工智能·tcp/ip·重构·创始人ip·创客匠人·知识变现
嘉禾望岗50314 小时前
spark standalone模式HA部署,任务失败重提测试
大数据·分布式·spark
Dxy123931021614 小时前
Elasticsearch数据更新简介
大数据·elasticsearch·搜索引擎
TDengine (老段)14 小时前
TDengine COLS 函数用户手册
大数据·数据库·物联网·时序数据库·iot·tdengine
吃喝不愁霸王餐APP开发者14 小时前
外卖霸王餐用户画像标签系统:Spark SQL批处理+Kafka流处理混合计算
sql·spark·kafka