Hadoop3教程(十):MapReduce中的InputFormat

文章目录

(87)切片机制与MapTask并行度决定机制

什么是MapTask的并行度?

即在一个MR程序里,需要并行开启多少个MapTask,来处理数据。

并行度是越大越好么,当然不是,这玩意儿当然还得看需要处理的数据量,如果数据量不大,开一堆MapTask的话,既浪费资源,又拖慢整体速度(MapTask初始化也是要时间的)。

那么MapTask的并行度设置多少比较合适,或者说应该参考什么指标来制定?

首先我们复习一下block的概念,即文件块,是HDFS存储数据的单位,一般是128M一个数据块。block属于是在物理磁盘上,切切实实的对数据进行了分割。

再介绍一个新概念,即数据切片,数据切片是在逻辑上对输入的数据进行分片,并不会影响数据在物理上的存储。数据切片是MapReduce中计算输入数据的单位,每一个数据切片会对应启动一个MapTask。

直接总结给出结论:

  • 一个job(或者说一个MR程序)的Map阶段并行度,由客户端在提交job时的切片数来决定;

  • 每一个切片分配一个MapTask;

  • 默认情况下,切片大小等于块大小。(即默认也是128M)

  • 切片时不考虑数据整体,而是逐个对每一个所提交文件单独切片,即不可能出现文件A的末尾和文件B的开头出现在同一片里,这种情况。

结论3和结论4其实原因差不多哈,可以理解成是为了尽量避免在不同DataNode之间通信的损耗。

比如说现在我要处理的一个大文件,命名成a.txt吧,它的第一个block位于DataNode_1上,第二个block位于DataNode_2上,第三个block位于DataNode_3上。

如果切片大小不等于block大小的话,且考虑数据整体,那肯定会出现不同DataNode上的数据位于同一个切片的情况。

比如说我把切片大小定为100M,那么第一片就位于DataNode_1上,是0M~100M,然后DataNode_1上只剩下28M数据,需要从DataNode_2上再拿72M数据,才能再凑齐一个切片。

那这就有问题了,在处理第二个切片的时候,需要同时通信DataNode_1和DataNode_2,肯定是不如在单个DataNode上完全处理完要好。

因此,切片大小等于块大小,是比较好的。

结论4的原因也差不多,不同文件的block存放的DataNode那肯定更五花八门了,说不定处理一个切片都得联系五六个DataNode,那太低效了。

(90) 切片源码总结

切片这个动作是针对输入数据的,默认是FileInputFormat,主要步骤我们可以文件简单描述一遍。

1) 程序需要先找到你数据存储的目录;

2) 开始遍历(以规划切片)该目录下的每一个文件;

3) 遍历第一个文件a.txt

3.1) 先获取文件的大小;

3.2) 然后计算(或者说获取)切片的大小。这个是有计算公式的:

computeSplitSize = max(minSize, min(maxSize, blocksize))

minSize默认是1M,maxSize默认是Long型的最大值。

因此默认情况下,上面公式会计算出computeSplitSize = blocksize

这里我们发散一下,如果我想改大切片大小,比如说想让它等于256M,我该怎么办?

当然是修改minSize=256,上式可以自己算一下。

同理,如果是想改小切片大小,比如说等于64M,那就修改maxSize=64

简单的说就是,如果想调小片大小,就修改MaxSize,如果想调大片大小,就修改MinSize。

3.3) 然后开始切片,比如说0~128是第一片,128~256是第二片;

这里也有个需要注意的点,就是每次切片的时候,都会判断切完后,该文件剩下的大小,是否大于blocksize(教程里写的是块大小,但是我感觉这里是不是对比的应该是切片大小,之后看源码来判断吧)的1.1倍,如果小于的话,那就不再切了,剩下的部分作为最后一块切片。反之则继续切。

3.4) 将切片的信息写到一个切片规划文件中;

这里的切片规划InputSplit , 只记录了切片的元数据信息,比如每一片的切片起始位置等,并不是真正的切了。

以上切片的核心过程,都是在FileInputFormat.getSplit()中完成;

4) 最后,Client提交切片规划文件给YARN,YRAN上的MrAPPMaster就会根据规划文件来计算所需的MapTask个数。

附一张教程里的图,可做辅助理解:

(91)FileInputFormat切片机制

默认的FileInputFormat切片机制流程,跟上一小节介绍的基本一样:

  • 根据文件的内容长度开始切片;
  • 切片大小等于block大小
  • 切片时不考虑整体,而是对每一个文件分别切割;

这是默认情况下的一个切片机制, 并不是一成不变的。

举一个例子,假设我要处理20个文件,每个文件大小是1KB,当前blockSize=128M,按照上面的规则,对每一个文件分别切片,那就相当于1个文件一片,一共20片,对应的,我就要启动20个MapTask去执行读。

想象一下,就为了这20KB的数据,我需要耗费大量的时间和空间,去初始化并执行20个MapTask,这是非常不合理的,所以这种时候我们就可以打破默认的限制,将几个文件组合在一起来作为一片。这就是CombineTextInputFormat,这个后面会仔细讲。

教程在这里讲了一个基于FileInputFormat的实例,我也放上来吧。

假设现在有两个输入文件:

  • file_1.txt,320M
  • file_2.txt,10M

开始切片,形成的切片信息如下:

  • file_1.txt.split_1:0~128M;
  • file_1.txt.split_2:128~256M;
  • file_1.txt.split_3:256~320M;
  • file_2.txt.split_1:0~10M;

具体的切片流程,上一小节都讲过了,这里就不展开了,只记录一下,在代码里如何获取切片信息?

java 复制代码
// 根据文件类型获取切片信息
FileSplit inputSplit = (FileSplit)context.getInputSplit();
//获取切片的文件名称
String name = inputSplit.getPath().getName();

(92)TextInputFormat及其他实现类一览

严格来讲,FileInputFormat是一个接口类,我们日常开发中常用的,还是它的那些接口实现类,比如说:TextInputFormat、KeyValueTextInputFormat、NLineInputFormat、CombineTextInputFormat和自定义InputFormat等。

其中用的最多的,是TextInputFormat和CombineTextInputFormat,所以教程里重点讲了一下这两种,尤其是后者,我就顺着教程来了。

看了下源码, 切片时还需要先判断文件是否可以切割,一般来讲,压缩文件是不能切割的。但是也不绝对,看你用的哪种压缩算法,有的压缩格式的文件倒是也能切,在后续的(123)压缩概述小节里会详细介绍下这些。

KeyValueTextInputFormat,是需要传入一个分隔符,然后拿着这个分隔符去切割输入的数据,切出来的0号位作为Key,剩下的部分作为value。

NLineInputFormat,是一次性读取多行,而TextInputFormat一次性只读取一行,这个区别很好理解,相当于是加强版,就不赘述了。

相当于对TextInputFormat来讲,一个10行的输入文本,它会对应生成10个KV对,但是对NLineInputFormat来讲,它可能只会生成2个KV对(假设它一次性读取5行),可能效率会高一些。

CombineTextInputFormat,是一次性读取多个文件进行组合,组合在一起进行后续的处理,比如说切片。非常适合小文件多的情况,避免了冗余MapTask。

TextInputFormat,就是一行一行读取文件,形成的输入KV对中,键就是该行在整个文件里的起始字节偏移量(我理解,作用跟行号差不多,但确实不是行号),值就是该行的内容,不包含换行和回车符。

以下是一个示例,比如,一个分片包含了如下4条文本记录。

Rich learning form
Intelligent learning engine
Learning more convenient
From the real demand for more close to the enterprise

每条记录在读取后,会表示为以下键值对:

(0,Rich learning form)
(20,Intelligent learning engine)
(49,Learning more convenient)
(74,From the real demand for more close to the enterprise)

(93) CombineTextInputFormat切片机制

原理

1) CombineTextInputFormat是用来解决小文件过多的问题。

上一小节提过,TextInputFormat是按照文件做切片的,一个文件,即使只有1KB,也会切成一片,从而开启一个单独的MapTask。在小文件过多的时候,这种对资源的浪费简直是不可想象的。

于是提出了CombineTextInputFormat,它可以把几个小文件在逻辑上分进同一个切片,这样子启动一个MapTask就可以了。

2) CombineTextInputFormat中,切片大小比较难理解,这个涉及到一个虚拟存储的概念。

java 复制代码
CombineTextInputFormat.setMaxInputSplitSize(job, 默认大小);

CombineTextInputFormat生成切片的过程,也跟其他实现类不太一样,它是分为两个步骤:

  • 虚拟存储过程
  • 正式切片过程

案例讲解

接下来上一个实例来讲解,比如说要将文件按照字典数据排序。

假设,现在定义的CombineTextInputFormat的MaxInputSplitSize=4M,然后我们的输入数据是四个文件,分别是:

  • a.txt,1.7M;
  • b.txt,5.1M;
  • c.txt,3.4M;
  • d.txt,6.8M;

1) 首先会将文件,按照字典数据做排序,就是abcd,然后再开始切片, 这个排序直接影响了哪些文件会合在一起。

2) 接下来是虚拟存储过程:

  • 对a.txt,由于1.7M < 4M ,即MaxInputSplitSize,因此逻辑上划分为1块;
  • b.txt,由于4M < 5.1M < 2 * 4M,因此逻辑上均分为两块,第一块是2.55M,第二块也是2.55M;
  • c.txt,由于3.4M < 4M,因此逻辑上划分为1块;
  • d.txt,4M < 6.8M < 2 * 4M,因此逻辑上均分为两块,块1=3.4M,块2=3.4M;

然后虚拟存储结束,我们得到了以下虚拟分块:

1.7M
2.55M
2.55M
3.4M
3.4M
3.4M

3) 再接着,我们就可以开始规划切片了,这里切片的基本规则: 判断虚拟存储的文件大小是否大于MaxInputSplitSize,如果大于则单独成片,小于则组合下一个虚拟存储文件,直到大于MaxInputSplitSize,组合成片。

按照这个规则,我们可以得到以下三个切片:

片一:1.7M + 2.55M
片二:2.55M + 3.4M
片三:3.4M + 3.4M

弹幕里提了一个问题,假设我有一个10M的文件,那么按照上面的规则,是会划分成几个多大的虚拟存储文件?

确实是好问题,4M < 2 * 4M < 10M,我个人感觉是划分成 4M + 3M + 3M,即划分出第一块后,剩下6M重新开始判断,并最终均分为3M + 3M;

也有人说是划分成4M + 4M + 2M,感觉也有点道理,但还是更支持前面那种,先暂存一下,后来再查。

2023-10-15 12:08:08 后来忘记查了,我刚把这个问题问了下文心一言,它告诉我都行。。。两种方式都行。。。。

2023-10-15 12:11:13 查阅了下相关资料,应该是前者,先划分一块4M的出来,剩下的再跟MaxInputSplitSize去比较。合理。

MR代码在编写的时候,需要在Driver里定义以下代码:

java 复制代码
// 如果不设置InputFormat,默认使用的是TextInputFormat.class
job.setInputFormatClass(CombineTextInputFormat.class);

// 虚拟存储切片最大值设置4m
CombineTextInputFormat.setMaxInputSplitSize(job, 419304);

如果用以上代码来处理上一小节说的4个文件,从打印的日志里可以看到有3个切片:

number of split:3

就说明是3个切片。

参考文献

  1. 【尚硅谷大数据Hadoop教程,hadoop3.x搭建到集群调优,百万播放】
  2. 他来了他来了,Hadoop序列化和切片机制了解一下?
相关推荐
SelectDB2 小时前
飞轮科技荣获中国电信星海大数据最佳合作伙伴奖!
大数据·数据库·数据分析
小刘鸭!2 小时前
Hbase的特点、特性
大数据·数据库·hbase
Elastic 中国社区官方博客3 小时前
如何通过 Kafka 将数据导入 Elasticsearch
大数据·数据库·分布式·elasticsearch·搜索引擎·kafka·全文检索
nece0013 小时前
elasticsearch 杂记
大数据·elasticsearch·搜索引擎
开心最重要(*^▽^*)3 小时前
Es搭建——单节点——Linux
大数据·elasticsearch
学计算机的睿智大学生4 小时前
Hadoop的生态系统所包含的组件
大数据·hadoop·分布式
武子康4 小时前
大数据-259 离线数仓 - Griffin架构 修改配置 pom.xml sparkProperties 编译启动
xml·java·大数据·hive·hadoop·架构
qiquandongkh5 小时前
期权懂|期权新手入门知识:如何挑选期权活跃合约?
大数据·区块链
重生之绝世牛码6 小时前
Java设计模式 —— 【结构型模式】享元模式(Flyweight Pattern) 详解
java·大数据·开发语言·设计模式·享元模式·设计原则
喝醉酒的小白6 小时前
ElasticSearch 的核心功能
大数据·elasticsearch·jenkins