MapReduce 的工作原理

MapReduce 是一种编程模型,用于大规模数据集的并行运算。它主要包含两个核心操作:Map(映射)和 Reduce(归约),其工作原理可以细分为以下几个关键步骤:

1. 输入分片(Input Splitting)

在开始处理数据之前,输入数据会被分割成多个较小的数据块,即输入分片(Input Split)。每个分片是一个独立的工作单元,可由不同的 Map 任务并行处理。分片的大小通常根据 HDFS 块大小来确定,这样可以保证每个分片都能在一个节点上高效地处理,减少数据传输开销。

2. Map 阶段

  • 数据读取:每个 Map 任务从对应的输入分片中读取数据,通常以键值对(Key-Value)的形式进行处理。例如,在文本处理中,键可能是行号,值可能是每行的文本内容。
  • 映射处理:Map 函数对输入的键值对进行处理,生成一组中间键值对。这些中间键值对是对输入数据的初步转换和处理结果。例如,在单词计数任务中,Map 函数会将每行文本拆分成单词,并为每个单词生成一个键值对,键为单词,值为 1,表示该单词出现了一次。
  • 本地聚合(可选):为了减少数据传输量,Map 任务可以在本地对中间结果进行聚合操作。例如,在单词计数任务中,Map 任务可以先统计本地出现的每个单词的数量,然后再将结果发送给 Reduce 任务。

3. 分区(Partitioning)

Map 任务生成的中间键值对会根据键的哈希值进行分区,每个分区对应一个 Reduce 任务。分区的目的是将具有相同键的键值对发送到同一个 Reduce 任务中进行处理,确保最终的归约结果是正确的。

4. 排序和分组

在分区之后,中间键值对会按照键的顺序进行排序,并将具有相同键的键值对分组在一起。这样,每个 Reduce 任务接收到的键值对都是按照键排序的,并且相同键的所有值都被聚集在一起。

5. Shuffle 和 Sort 阶段

  • Shuffle:将 Map 任务产生的中间结果从 Map 节点传输到对应的 Reduce 节点的过程称为 Shuffle。这个过程涉及到网络传输和磁盘 I/O,是 MapReduce 中比较耗时的环节。
  • Sort:在 Reduce 节点上,接收到的中间结果会按照键进行排序,确保相同键的所有值都相邻排列。

6. Reduce 阶段

  • 归约处理:Reduce 函数对每个键对应的一组值进行处理,生成最终的输出结果。例如,在单词计数任务中,Reduce 函数会对每个单词对应的所有值(即出现次数)进行求和,得到该单词的总出现次数。
  • 输出结果:Reduce 任务将处理后的结果写入到最终的输出文件中,通常存储在 HDFS 中。

7. 输出合并

所有 Reduce 任务完成后,最终的输出结果会被合并成一个或多个文件,存储在指定的输出目录中。

相关推荐
在未来等你30 分钟前
Elasticsearch面试精讲 Day 17:查询性能调优实践
大数据·分布式·elasticsearch·搜索引擎·面试
大数据CLUB4 小时前
基于spark的澳洲光伏发电站选址预测
大数据·hadoop·分布式·数据分析·spark·数据开发
ratbag6720134 小时前
当环保遇上大数据:生态环境大数据技术专业的课程侧重哪些领域?
大数据
计算机编程小央姐5 小时前
跟上大数据时代步伐:食物营养数据可视化分析系统技术前沿解析
大数据·hadoop·信息可视化·spark·django·课程设计·食物
智数研析社6 小时前
9120 部 TMDb 高分电影数据集 | 7 列全维度指标 (评分 / 热度 / 剧情)+API 权威源 | 电影趋势分析 / 推荐系统 / NLP 建模用
大数据·人工智能·python·深度学习·数据分析·数据集·数据清洗
潘达斯奈基~7 小时前
《大数据之路1》笔记2:数据模型
大数据·笔记
寻星探路7 小时前
数据库造神计划第六天---增删改查(CRUD)(2)
java·大数据·数据库
翰林小院9 小时前
【大数据专栏】流式处理框架-Apache Fink
大数据·flink
孟意昶9 小时前
Spark专题-第一部分:Spark 核心概述(2)-Spark 应用核心组件剖析
大数据·spark·big data
IT学长编程10 小时前
计算机毕业设计 基于Hadoop的健康饮食推荐系统的设计与实现 Java 大数据毕业设计 Hadoop毕业设计选题【附源码+文档报告+安装调试】
java·大数据·hadoop·毕业设计·课程设计·推荐算法·毕业论文