Spark 从HDFS读取时,通常按文件块(block)数量决定初始partition数,这是怎么实现的?

在 Spark 中,从 HDFS 读取数据时按文件块(block)数量决定初始 partition 数 ,这一机制是通过 Hadoop InputFormat 的分片(split)策略实现的。具体流程如下:


1. HDFS 文件块(Block)与 Spark Partition 的对应关系

  • HDFS 默认块大小(如 128MB/256MB)决定了文件的物理存储分布。

  • Spark 在读取 HDFS 文件时 ,会调用 Hadoop 的 InputFormat(如 TextInputFormatSequenceFileInputFormat)来生成数据分片(InputSplit)。

  • 每个 InputSplit 会映射为一个 Spark Partition ,因此:
    初始 Partition 数 ≈ HDFS 文件块数

    (假设文件未被压缩且未手动指定分区数)。


2. 底层实现机制

(1) 调用 Hadoop API

Spark 通过 HadoopRDDNewHadoopRDD 读取 HDFS 数据时,会使用 Hadoop 的 InputFormat.getSplits() 方法生成分片。

  • 关键类

    • org.apache.hadoop.mapreduce.InputFormat

    • org.apache.spark.rdd.HadoopRDD

(2) 分片(Split)生成逻辑

TextInputFormat 为例:

  1. 按文件块切分

    • 每个 HDFS 文件块(block)默认生成一个 FileSplit(即一个 InputSplit)。

    • 例如:一个 1GB 的文件(128MB/block)会生成 8 个 FileSplit → 对应 8 个 Spark Partition

  2. 处理跨行问题

    • 如果某一行数据跨越两个 block,Hadoop 会通过 网络读取下一个 block 的开头部分,确保数据完整性。
(3) Spark 的 Partition 分配
  • 生成的 InputSplit 会被封装为 HadoopPartition,最终构成 RDD 的分区:

    Scala 复制代码
    // HadoopRDD 中的分区生成逻辑
    override def getPartitions: Array[Partition] = {
      val inputSplits = inputFormat.getSplits(jobConf, minPartitions)
      inputSplits.map(split => new HadoopPartition(id, split.index, split))
    }
    • 这里的 minPartitions 是用户指定的最小分区数(默认不指定时等于 inputSplits.size)。

3. 特殊情况处理

(1) 压缩文件
  • 如果文件是 不可分割的压缩格式 (如 GZIP),整个文件会被视为 一个 InputSplit → 仅生成 1 个 Partition

  • 可分割压缩格式(如 BZip2)仍按 block 切分。

(2) 手动指定分区数
  • 通过 sc.textFile(path, minPartitions) 指定最小分区数时:

    • Spark 会尝试合并或拆分 InputSplit 以满足 minPartitions 要求。

    • 但最终分区数可能 大于 minPartitions(因为不能拆分单个 block)。

(3) 小文件合并
  • 大量小文件会导致 Partition 数过多(每个小文件至少 1 个 Partition),可通过以下方式优化:

    • 使用 coalesce 减少分区。

    • 读取时指定 minPartitions(如 sc.textFile("hdfs://path/*.txt", 100))。


4. 验证方法

(1) 查看 RDD 的分区数
Scala 复制代码
val rdd = sc.textFile("hdfs://path/file.txt")
println(rdd.partitions.size)  // 输出实际分区数
(2) 调试 Hadoop InputSplits
Scala 复制代码
val hadoopConf = sc.hadoopConfiguration
val path = new org.apache.hadoop.fs.Path("hdfs://path/file.txt")
val inputFormat = new org.apache.hadoop.mapreduce.lib.input.TextInputFormat
val splits = inputFormat.getSplits(new org.apache.hadoop.mapreduce.JobContext(hadoopConf, null))
println(splits.size)  // 输出Hadoop生成的InputSplit数

5. 总结

关键点 说明
默认规则 1 个 HDFS block → 1 个 InputSplit → 1 个 Spark Partition
压缩文件 不可分割压缩格式(如 GZIP)→ 仅 1 个 Partition
手动控制 sc.textFile(path, minPartitions) 可调整分区数下限
优化建议 避免大量小文件,合理设置 minPartitions

通过这一机制,Spark 天然适配 HDFS 的分布式存储特性,实现数据本地化(Data Locality),减少网络传输开销。

相关推荐
武子康2 小时前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台1 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术1 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康1 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康2 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天2 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康4 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
肌肉娃子5 天前
20260227.spark.Spark 性能刺客:千万别在 for 循环里写 withColumn
spark
武子康5 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP6 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet