hdfs中MapReduce中的shuffle,combine和partitioner(hadoop,Hdfs)

1- MapReduce中shuffle阶段的工作流程以及何如优化该阶段?

分区 ,排序 ,溢写 ,拷贝到对应reduce机器上 ,增加combiner ,压缩溢写的文件

2-MapReduce中combine的作用,一般使用情景,那些情况不需要以及和reduce的区别?

1)Combiner的意义就是对每一个maptask的输出进行局部汇总 ,以减小网络传输量。

2)Combiner能够应用的前提是不能影响最终的业务逻辑 ,而且 ,Combiner的输出kv应该跟reducer的输入kv类型 要对应起来。

3)Combiner和reducer的区别在于运行的位置。

  • Combiner是在每一个maptask所在的节点运行;

  • Reducer是接收全局所有Mapper的输出结果

3- 如果没有定义partitioner,那数据在被送达reduce前是如何被区分的?

如果没有自定义的 partitioning,则默认的 partition 算法,即根据每一条数据的 key的 hashcode 值摸运算(%) reduce 的数量 ,得到的数字就是"分区号"。

相关推荐
AI逐月12 分钟前
Git 彻底清除历史记录
大数据·git·elasticsearch
天远API33 分钟前
Java后端进阶:处理多数据源聚合API —— 以天远小微企业报告为例
大数据·api
希艾席帝恩1 小时前
数字孪生如何重塑现代制造体系?
大数据·人工智能·数字孪生·数据可视化·数字化转型
武汉海翎光电1 小时前
从数据采集到智能决策:船舶传感器的技术跃迁之路
大数据·人工智能
下海fallsea2 小时前
美团没打赢的仗
大数据
无代码专家3 小时前
无代码:打破技术桎梏,重构企业数字化落地新范式
大数据·人工智能·重构
usrcnusrcn3 小时前
告别PoE管理盲区:有人物联网工业交换机如何以智能供电驱动工业未来
大数据·网络·人工智能·物联网·自动化
一缕猫毛4 小时前
Flink demo代码
java·大数据·flink
Hello.Reader4 小时前
Flink ML 基本概念Table API、Stage、Pipeline 与 Graph
大数据·python·flink
pale_moonlight4 小时前
十一、Flink基础环境实战
大数据·flink