【Hadoop 02】企业级解决方案

1 小文件问题

问题描述

由于在HDFS中,每一个小文件在NameNode中都会占用150字节的内存空间,而且每个小文件都是一个Block,会产生一个InputSplit,这样就会产生一个Map任务,同时启动多个Map任务消耗性能,影响MapReduce执行效率。

解决方案

HDFS提供两种类型的容器,分别是SequenceFile和MapFile。

  • SequenceFile:将<key,value>对序列化到文件中。
  • MapFile:是排序后的SequenceFile,主要由两部分组成,分别是index和data;index作为文件的数据索引,主要记录了每个Record的key值,以及该Record在文件中的偏移位置。在MapFile被访问的时候,索引文件会被加载到内存,通过索引映射关系可迅速定位到指定Record所在文件位置,因此,相对SequenceFile而言,MapFile的检索效率是高效的,缺点是会消耗一部分内存来存储index数据。

2 数据倾斜问题

问题描述

需要统计的数据很集中,比如有一个文件,有1000W条数据,这里面的值主要都是数字(1,2,3,4,5,6,7,8,9,10),希望统计出来每个数字出现的次数,其中值为5的数据有910w条左右,剩下的9个数字一共只有90w条。

解决方案

把倾斜的数据打散

  1. 设置Reduce任务个数
java 复制代码
job.setNumReduceTasks(Integer.parseInt(args[2]));
  1. 将数据打散
java 复制代码
String key = words[0];
if ("5".equals(key)) {
 //把倾斜的key打散,分成10份
 key = "5" + "_" + random.nextInt(10);
}

3 YARN

3.1 YARN架构分析

  • YARN主要负责**++集群资源++** 的管理和调度,支持主从架构,主节点最多可以有1个,从节点可以有多个
  • ResourceManager:主节点主要负责集群资源的分配和管理
  • NodeManager:从节点主要负责当前机器资源管理

3.2 YARN资源管理模型

  • YARN主要++管理内存和CPU++这两种资源类型
  • NodeManager启动时,会向ResourceManager注册,注册信息中包含该节点可分配的CPU和内存总量
  • yarn.nodemanager.resource.memory-mb:单节点可分配的物理内存总量,默认是8MB*1024,即8G
  • yarn.nodemanager.resource.cpu-vcores:单节点可分配的虚拟CPU个数,默认是8

3.3 YARN中的调度器

  • FIFO Scheduler:先进先出(first in, first out)调度策略
  • Capacity Scheduler:FIFO Scheduler的多队列版本
  • Fair Scheduler:多队列,多用户共享资源

3.4 案例:YARN多资源队列配置和使用

需求描述

增加2个队列,一个是online队列,一个是offline队列,然后向offline队列中提交一个mapreduce任务,其中online队列里面运行实时任务,offline队列里面运行离线任务

解决方法

  1. 修改etc/hadoop目录下的capacity-scheduler.xml配置文件
XML 复制代码
<property>
 <name>yarn.scheduler.capacity.root.queues</name>
 <value>default,online,offline</value>
 <description>
   The queues at the this level (root is the root queue).
 </description>
</property>
<property>
 <name>yarn.scheduler.capacity.root.default.capacity</name>
 <value>70</value>
 <description>Default queue target capacity.</description>
</property>
<property>
 <name>yarn.scheduler.capacity.root.online.capacity</name>
 <value>10</value>
 <description>Online queue target capacity.</description>
</property>
<property>
 <name>yarn.scheduler.capacity.root.offline.capacity</name>
 <value>20</value>
 <description>Offline queue target capacity.</description>
</property>
<property>
 <name>yarn.scheduler.capacity.root.default.maximum-capacity</name>
 <value>70</value>
 <description>
   The maximum capacity of the default queue.
 </description>
</property>
<property>
 <name>yarn.scheduler.capacity.root.online.maximum-capacity</name>
 <value>10</value>
 <description>
   The maximum capacity of the online queue.
 </description>
</property>
<property>
 <name>yarn.scheduler.capacity.root.offline.maximum-capacity</name>
 <value>20</value>
 <description>
   The maximum capacity of the offline queue.
 </description>
</property>

该配置文件定义了三队列:default、online和offline。每个队列有一个目标容量(capacity)和最大容量(maximum-capacity)。

  • yarn.scheduler.capacity.root.queues:定义了根队列下的子队列,即default、online和offline队列。
  • yarn.scheduler.capacity.root.default.capacity:默认队列目标容量为70%。
  • yarn.scheduler.capacity.root.online.capacity:在线队列的标容量为10%。
  • yarn.scheduler.capacity.root.offline.capacity:离线队列的目标容量为20%。
  • yarn.scheduler.capacity.root.default.maximum-capacity:默认队列的最大容量70%。
  • yarn.scheduler.capacity.root.online.maximum-capacity:在线队列的最大容量为10%。
  • yarn.scheduler.capacity.root.offline.maximum-capacity:离线队的最大容量为20%。

这些配置项可以根据实际需求进行调整。它们决定每个队列可以使用的资源比例,以及队列间的优先级限制。通过合理配置队列的容量和最大容量,可以实现对同类型任务的资源分配和调度制。

  1. 重启Hadoop
XML 复制代码
stop-all.sh
start-all.sh
相关推荐
跨境卫士苏苏6 小时前
亚马逊AI广告革命:告别“猜心”,迎接“共创”时代
大数据·人工智能·算法·亚马逊·防关联
珠海西格电力6 小时前
零碳园区工业厂房光伏一体化(BIPV)基础规划
大数据·运维·人工智能·智慧城市·能源
HerayChen6 小时前
HbuilderX 内存溢出报错
java·大数据·linux
梦里不知身是客117 小时前
flink中checkpoint的重启策略
大数据·服务器·flink
中科天工7 小时前
从“人海战术”到“无人值守”:一套智能工厂解决方案,如何用最小空间释放最大产能?
大数据·人工智能·智能
zhaodiandiandian7 小时前
生成式AI重塑内容创作:人机协同开启行业新生态
大数据·人工智能
不平衡的叉叉树7 小时前
Es索引文档全量更新与迁移
大数据·elasticsearch·搜索引擎
科技动态8 小时前
BOE(京东方)“焕新2026”年终媒体智享会落地成都 三大显示技术品牌引领行业发展风潮
大数据·人工智能·媒体
沃达德软件8 小时前
警务大数据实战模型解析
大数据·人工智能
zhou_gai9 小时前
供应链计划系统架构实战(五):数据模型设计-全球网络模型与数据分布
大数据·系统架构·制造