[spark面试]spark与mapreduce的区别---在DAG方面

1、spark中的task是以线程实现的,而mapreduce中是以进程实现的。

进程的频繁启动和停止会增加资源的消耗。

2、spark中支持DAG,而mapreduce不支持DAG

DAG的使用:为什么支持DAG会更加高效

1)、在DAG图中,会将一个job划分为不同的stage,同一个stage会在内存中进行转换,而不同stage之间需要进行shuffle过程,否则对于spark来说,他并不知道哪一个RDD之间的转换需要使用磁盘。------即第三个区别

2)、spark的lazy模式(惰性求值),就是基于DAG图实现的,因为DAG图中存放了task中的血缘关系。

lazy模式的优点:

1、可以**减少数据传输和计算开销,**例如,多个转换操作可以在一次计算中并行执行,避免了多次中间结果的生成和传输。

2、优化执行计划: Spark 可以在执行时分析整个计算图,并应用各种优化技术,如 管道化(Pipelining)合并操作(Operation Fusion)

  1. spark的宽窄依赖和DAG的相互配合可以在某一个分区的数据丢失时,快速恢复,不需要从头开始。

若在一个stage中的有某一个分区的数据丢失,可以通过DAG和窄依赖(父RDD分区的数据只传递给子RDD的某一个分区)对该分区的数据进行回溯,当然若是跨了多个stage,就麻烦了。

3、spark主要是基于一个内存的引擎,而mapreduce是基于磁盘的。

相关推荐
future02106 分钟前
Kafka积压急救:根治方案全解析
分布式·kafka
AC赳赳老秦36 分钟前
OpenClaw 全平台安装详解:Windows 10/11、macOS、Linux 零踩坑指南 (附一键脚本)
大数据·人工智能·python·django·去中心化·ai-native·openclaw
yuhaiqiang39 分钟前
为什么这道初中数学题击溃了所有 AI
前端·后端·面试
用户5757303346241 小时前
🔥 面试必杀技:手写 Zustand,彻底搞懂 React 状态管理的“中央银行”模式
面试
飞Link1 小时前
Kafka~本地Python Kafka发送数据,服务端Kafka消费不到
java·分布式·kafka
KKKlucifer1 小时前
国产化适配与自主可控:国内安全厂商文档安全平台核心技术构建
大数据·数据库·人工智能
面向Google编程1 小时前
从零学习Kafka:副本机制
大数据·后端·kafka
生活予甜1 小时前
“安、迅、智、省”四维发力,高频科技解锁半导体超纯水运维新价值
大数据·人工智能
AI猫站长1 小时前
快讯|智谱GLM-5-Turbo实测:面向OpenClaw深度优化,响应提速60%,token消耗减少17.8%
大数据·人工智能·数据挖掘·具身智能·灵心巧手
程序员爱钓鱼1 小时前
Go高性能缓冲IO详解: bufio包深度指南
后端·面试·go