通过Hive小文件合并(CombineHiveInputFormat)减少80%的Map任务数

一、Hive小文件合并(CombineHiveInputFormat)减少Map任务数

核心问题:小文件过多导致Map任务激增(每个文件至少一个Map),浪费资源且增加NameNode压力

优化策略:
  1. 输入合并(Map前合并)

    • 参数配置

      SQL

      set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat; -- 启用合并输入 set mapred.max.split.size=256000000; -- 单个Map处理的最大数据量(默认256MB) set mapred.min.split.size.per.node=100000000; -- 单个节点最小合并阈值
      通过将多个小文件合并为逻辑块,减少Map数量(例如将100个1MB文件合并为2个Map任务)

  2. 输出合并(任务结束后合并)

    • 参数配置

      SQL

      set hive.merge.mapfiles=true; -- 合并Map输出 set hive.merge.mapredfiles=true; -- 合并Reduce输出 set hive.merge.size.per.task=256000000; -- 目标文件大小 set hive.merge.smallfiles.avgsize=16000000; -- 触发合并的阈值

    • 合并机制
      任务结束后自动启动Map-only作业,将碎片文件合并至目标大小,避免后续任务处理小文件

效果验证

  • 案例:某集群通过合并参数优化,Map任务数从1000+降至200,减少80%资源消耗
  • 注意事项 :合并操作可能增加作业耗时,建议仅在最终结果表启用
相关推荐
Aurora_eye20 小时前
记录之Ubuntu22.4虚拟机及hadoop为分布式安装
大数据·hadoop·分布式
SirLancelot11 天前
StarRocks-基本介绍(一)基本概念、特点、适用场景
大数据·数据库·数据仓库·sql·数据分析·database·数据库架构
随心............1 天前
在开发过程中遇到问题如何解决,以及两个经典问题
hive·hadoop·spark
yumgpkpm2 天前
CMP (类ClouderaCDP7.3(404次编译) )华为鲲鹏Aarch64(ARM)信创环境 查询2100w行 hive 查询策略
数据库·数据仓库·hive·hadoop·flink·mapreduce·big data
CoookeCola2 天前
MovieNet(A holistic dataset for movie understanding) :面向电影理解的多模态综合数据集与工具链
数据仓库·人工智能·目标检测·计算机视觉·数据挖掘
K_i1343 天前
Hadoop 集群自动化运维实战
运维·hadoop·自动化
Q26433650233 天前
【有源码】基于Python与Spark的火锅店数据可视化分析系统-基于机器学习的火锅店综合竞争力评估与可视化分析-基于用户画像聚类的火锅店市场细分与可视化研究
大数据·hadoop·python·机器学习·数据分析·spark·毕业设计
想ai抽3 天前
深入starrocks-多列联合统计一致性探查与策略(YY一下)
java·数据库·数据仓库
starfalling10243 天前
【hive】一种高效增量表的实现
hive
顧棟3 天前
【Yarn实战】Yarn 2.9.1滚动升级到3.4.1调研与实践验证
hadoop·yarn