hdfs中MapReduce中的shuffle,combine和partitioner(hadoop,Hdfs)

1- MapReduce中shuffle阶段的工作流程以及何如优化该阶段?

分区 ,排序 ,溢写 ,拷贝到对应reduce机器上 ,增加combiner ,压缩溢写的文件

2-MapReduce中combine的作用,一般使用情景,那些情况不需要以及和reduce的区别?

1)Combiner的意义就是对每一个maptask的输出进行局部汇总 ,以减小网络传输量。

2)Combiner能够应用的前提是不能影响最终的业务逻辑 ,而且 ,Combiner的输出kv应该跟reducer的输入kv类型 要对应起来。

3)Combiner和reducer的区别在于运行的位置。

  • Combiner是在每一个maptask所在的节点运行;

  • Reducer是接收全局所有Mapper的输出结果

3- 如果没有定义partitioner,那数据在被送达reduce前是如何被区分的?

如果没有自定义的 partitioning,则默认的 partition 算法,即根据每一条数据的 key的 hashcode 值摸运算(%) reduce 的数量 ,得到的数字就是"分区号"。

相关推荐
元6332 小时前
Spark 缓存(Caching)
大数据·spark
麻芝汤圆3 小时前
MapReduce 入门实战:WordCount 程序
大数据·前端·javascript·ajax·spark·mapreduce
IvanCodes4 小时前
五、Hadoop集群部署:从零搭建三节点Hadoop环境(保姆级教程)
大数据·hadoop·分布式
富能量爆棚4 小时前
spark-local模式
大数据
lqlj22334 小时前
配置 Spark 以 YARN 模式
大数据·spark
AidLux5 小时前
端侧智能重构智能监控新路径 | 2025 高通边缘智能创新应用大赛第三场公开课来袭!
大数据·人工智能
炒空心菜菜6 小时前
SparkSQL 连接 MySQL 并添加新数据:实战指南
大数据·开发语言·数据库·后端·mysql·spark
富能量爆棚6 小时前
Hadoop和Spark生态系统
大数据
2401_871290588 小时前
Spark的缓存
大数据·spark
IvanCodes9 小时前
六、Hive 分桶
大数据·hive