【Hadoop】- MapReduce概述[5]

目录

前言

[一、分布式计算框架 - MapReduce](#一、分布式计算框架 - MapReduce)

二、MapReduce执行原理


前言

MapReduce是一种分布式计算框架,由Google开发。它的设计目标是将大规模数据集的处理和生成任务分布到一个由廉价计算机组成的集群中。

在MapReduce模型中,输入数据被分割成若干小块,并在集群中的多个节点上并行处理。每个节点执行"map"函数,将输入数据转换为一组键值对。这些键值对将进行洗牌和排序,并将生成的中间数据发送到"reduce"函数。

"reduce"函数将中间数据进行处理,将其合并为最终结果或输出。它根据所需的计算或分析对数据进行聚合和分析。

MapReduce提供了容错机制,系统可以通过将工作负载重新分配到其他节点来自动处理单个节点的失败。它还提供了可扩展性,可以通过添加更多的节点来处理更大的数据集或增加的处理需求。

MapReduce广泛用于大数据处理应用,例如分布式网络索引、日志分析和数据挖掘。它对其他数据处理系统的发展产生了影响,如Apache Hadoop。

一、分布式计算框架 - MapReduce

MapReduce是"分散"->"汇总"模式的分布式计算框架,可供开发人员开发相关程序进行分布式数据计算。MapRduce提供了2个编程接口:

  • Map
  • Reduce

其中

  • Map功能接口提供了"分散"的功能,有服务器分布式对数据进行处理
  • Reduce功能接口提供了"汇总"的功能,将分布式的处理结果汇总统计

用户如需使用MapReduce框架完成自定义需求的程序开发,只需要使用Java、Python等编程语言,实现Map Reduce功能接口即可。

二、MapReduce执行原理

现在,我们借助一个案例,简单分析MapReduce是如何完成分布式计算的。

假设有如下文件,内部记录了许多的单词。并且已经开发好了一个MapReduce程序,功能是统计每个单词出现的次数。

假设有4台服务器用以执行MapReduce任务,可以3台服务器执行Map,1台服务器执行Reduce

总结

1、什么是MapReduce

  • MapReduce是Hadoop中的分布式计算组件
  • MapReduce可以以分散->汇总模式执行分布式计算任务

2、MapReduce的主要编程接口

  • map接口,主要提供"分散"功能,有服务器分布式处理数据
  • reduce接口,主要提供"汇总"功能,进行数据汇总统计得到结果
  • MapReduce可供Java、Python等语言开发计算程序
相关推荐
PersistJiao9 分钟前
在 Spark RDD 中,sortBy 和 top 算子的各自适用场景
大数据·spark·top·sortby
2301_8112743121 分钟前
大数据基于Spring Boot的化妆品推荐系统的设计与实现
大数据·spring boot·后端
Yz987628 分钟前
hive的存储格式
大数据·数据库·数据仓库·hive·hadoop·数据库开发
青云交29 分钟前
大数据新视界 -- 大数据大厂之 Hive 数据导入:多源数据集成的策略与实战(上)(3/ 30)
大数据·数据清洗·电商数据·数据整合·hive 数据导入·多源数据·影视娱乐数据
武子康32 分钟前
大数据-230 离线数仓 - ODS层的构建 Hive处理 UDF 与 SerDe 处理 与 当前总结
java·大数据·数据仓库·hive·hadoop·sql·hdfs
武子康34 分钟前
大数据-231 离线数仓 - DWS 层、ADS 层的创建 Hive 执行脚本
java·大数据·数据仓库·hive·hadoop·mysql
时差9531 小时前
Flink Standalone集群模式安装部署
大数据·分布式·flink·部署
锵锵锵锵~蒋1 小时前
实时数据开发 | 怎么通俗理解Flink容错机制,提到的checkpoint、barrier、Savepoint、sink都是什么
大数据·数据仓库·flink·实时数据开发
二进制_博客1 小时前
Flink学习连载文章4-flink中的各种转换操作
大数据·学习·flink
大数据编程之光1 小时前
Flink入门介绍
大数据·flink