Hadoop---MapReduce(3)

MapTask工作机制

(1)Read阶段 :MapTask通过InputFormat获得的RecordReader,从输入InputSplit中解析出一个个key/value。

(2)Map阶段 :该节点主要是将解析出的key/value交给用户编写map()函数处理,并产生一系列新的key/value。

(3)Collect收集阶段 :在用户编写map()函数中,当数据处理完成后,一般会调用OutputCollector.collect()输出结果。在该函数内部,它会将生成的key/value分区(调用Partitioner),并写入一个环形内存缓冲区中。

(4)Spill阶段 :即"溢写",当环形缓冲区满后,MapReduce会将数据写到本地磁盘上,生成一个临时文件。需要注意的是,将数据写入本地磁盘之前,先要对数据进行一次本地排序,并在必要时对数据进行合并、压缩等操作。

溢写阶段详情:利用快速排序算法

(5)Merge阶段:当所有数据处理完成后,MapTask对所有临时文件进行一次合并,以确保最终只会生成一个数据文件。

Reduce-join案例

将左边两个表合并为右边的表

数据清洗(ETL)

在运行核心业务MapReduce程序之前,往往要先对数据进行清洗,清理掉不符合用户要求的数据。清理的过程往往只需要运行Mapper程序,不需要运行Reduce程序。
原始数据:

清洗后的数据

Hadoop数据压缩


Map端输出压缩

运行后不会产生.bzip

reduce端输出压缩
代码更改

输出结果

相关推荐
一只专注api接口开发的技术猿24 分钟前
智能决策数据源:利用 1688 商品详情 API 构建实时比价与供应链分析系统
大数据·前端·数据库
CES_Asia33 分钟前
2026科技热点预言:CES Asia“具身智能”展区已成产业风向标
大数据·人工智能·科技·机器人
风跟我说过她35 分钟前
HBase完全分布式部署详细教程(含HA高可用版+普通非HA版)
大数据·数据库·分布式·centos·hbase
神算大模型APi--天枢6461 小时前
合规落地加速期,大模型后端开发与部署的实战指南
大数据·前端·人工智能·架构·硬件架构
BlockWay1 小时前
WEEX唯客:市场波动加剧背景下,用户为何更关注平台的稳定性与安全性
大数据·人工智能·安全
QYZL_AIGC1 小时前
AI 赋能实体,全域众链创业的生态共赢新范式
大数据·人工智能
电商软件开发 小银2 小时前
门店共享:零成本开启额外收入
大数据·软件开发·商业模式·实体店转型·老板思维·门店共享·资源整合
xjxijd2 小时前
数据中心能效 AI 引擎:全链数字孪生 + 传热学算法,PUE 稳定 1.05 以下
大数据·服务器·人工智能
山峰哥2 小时前
SQL性能瓶颈破局:Explain分析+实战优化全攻略
大数据·数据库·sql·oracle·性能优化
TG:@yunlaoda360 云老大2 小时前
华为云国际站代理商的运维保障具体要求中,服务响应与SLA硬指标的具体内容是什么?
大数据·运维·华为云