大数据之 Hadoop

hadoop主要解决:海量数据的存储和海量数据的分析计算

hadoop发展历史

Google是hadoop的思想之源(Google在大数据方面的三篇论文)

2006年3月,Map-reduce和Nutch Distributed File System(NDFS)分别被纳入到Hadoop项目,Hadoop正式诞生。

MapReduce

对海量数据处理

map函数进行数据的提取、排序,实现mapper,四个形参(输入key,输入value,输出key,输出value),重写map方法,将输出信息写入到context中

reduce函数进行数据的计算,实现reduce,四个形参也是指定输入输出类型,reduce的输入类型必须匹配map的输出类型

job负责执行,控制整个作业的运行。

分为两个阶段,map阶段并行处理输入数据,reduce阶段对map结果进行汇总。

map阶段

第一个阶段把输入文件进行分片,

第二个阶段对输入的数据按照一定的规则解析成键值对,key表示每行首字符偏移值,value表示行文本内容

第三阶段是调用map方法,解析出来的每个键值对,调用一次map方法

第四阶段是按照一定规则对第三阶段输出的键值对进行分区

第五阶段是对每个分区中的键值对进行排序,首先按照key排序,再按value进行排序,完成后将数据写入内存中,内存中这片区域叫做环形缓存区。

reduce阶段

第一阶段copy map阶段输出的键值对

第二阶段把数据进行合并排序,把复制到ruduce阶段的数据全部合并,在对合并后的数据进行排序

第三个阶段是对排序后的键值对调用reduce方法。最后把输出的键值对写入到HDFS文件中

MapReduce是一种用于实现分布式计算的编程模型,它基于以下两个核心操作:Map和Reduce。下面我们来详细说明MapReduce框架的工作原理:

  1. 输入切分和数据输入(Input Splits and Input Format):
  • 首先,输入数据被切分成多个块,称为输入切片(Input Splits)。每个输入切片都是原始数据的一个子集,并且可以在不同的计算节点上独立处理。

  • 然后,通过指定适当的输入格式(Input Format),MapReduce框架能够理解输入数据的组织结构和格式。例如,输入格式可以是文本文件(TextInputFormat)、序列化文件(SequenceFileInputFormat)或其他自定义格式。

  1. Map阶段:
  • 在Map阶段,每个输入切片上都会执行Map任务。Map任务由用户定义的Map函数处理,将输入键值对映射为中间键值对。这些中间键值对是临时的,仅在Map阶段内使用。

  • 用户需要实现Map功能,将输入键值对(例如,文件中的行)转化为中间键值对。每个Map任务都会在本地执行,即在存储有输入数据的节点上执行,以减少数据的网络传输量。

  1. Shuffle和排序(Shuffle and Sort):
  • 在Map阶段完成后,Shuffle和排序过程开始。在这个过程中,框架会按照中间键对中间结果进行分区、排序和传输到Reduce任务。

  • 分区(Partitioning)操作根据中间键将中间结果划分到不同的Reduce任务中。这样,具有相同中间键的中间结果将被发送到同一个Reduce任务进行处理。

  • 排序(Sorting)操作确保相同中间键的中间结果按照排序顺序传递给Reduce任务,以便于后续的合并和归约。

  1. Reduce阶段:
  • 在Reduce阶段,每个Reduce任务接收来自Map阶段的中间结果。Reduce任务由用户定义的Reduce函数处理,将中间键值对转化为最终输出键值对。

  • 用户需要实现Reduce功能,对每个中间键的相关中间值进行合并、归约或其他操作,以生成最终结果。

  • 框架会将Reduce任务的输出结果写入到指定的输出文件中。

  1. 数据持久化和输出(Data Persistence and Output):
  • 框架将Reduce任务的输出结果持久化到指定的输出文件系统中。输出文件的格式由用户指定,可以是文本文件、序列化文件或其他自定义格式。

  • 用户可以根据需要选择输出的格式和存储位置。

总体而言,MapReduce框架通过将任务分发到集群中的多个节点上并行执行,将大规模计算分解成较小的任务单元,从而实现了高性能和可扩展的分布式计算。它通过Map和Reduce两个阶段将输入数据转化为最终输出结果,中间的Shuffle和排序过程用于将中间结果传输到Reduce任务进行合并和归约。这种任务划分和结果合并的方式,使得MapReduce能够高效地处理大规模数据集。

HDFS

是一个分布式文件系统

概念

整个HDFS有三个重要的角色:NameNode,DataNode,Client

NameNode:可看作是分布式文件系统的管理者,主要负责文件系统的命令空间,集群配置信息,存储块的复制,namenode会将文件系统的meta-data存储在内存中,这些信息主要包括了文件信息、每个文件对应的文件块的信息和每个文件块在datanode的信息等。

DataNode:是slave节点,是文件存储的基本单位,他将block存储在本地文件系统中,保存了block的meta-data,同时周期性的将所有存在的block信息发送给namenode。

Client:切分文件,访问hdfs;与namenode交互,获取文件位置信息;与datanode交互,读取和写入数据。

还有一个block的概念,block是hdfs读写的基本单位,hdfs最初都是被切割为block块存储的,这些块被复制到多个datanode中,块的大小(通常为128M)与复制的块数量在创建文件时由client决定。

最小化寻址开销

也不能设置过大,map任务通常一次只处理一个块中的数据,如果任务数太少(少于集群中的节点数量),作业的运行速度就会比较慢

写入流程:

用户向客户端提出请求,要存储200M的数据;

client指定计划,将数据按照128M进行切分;

client告诉namenode,让把128m的数据复制为三份

namenode将三个datanode的地址告诉client,并且将他们根据到client的距离进行排序

client将数据与清单发送给第一个datanode,第一个datanode将数据复制给第二个datanode,第二个将数据复制给第三个datanode

如果某一个块的数据已经全部写入,就给namenode反馈已完成,对第二个block也进行相同的操作

所有的block已经全部写入,关闭文件,namenode会将数据持久化到磁盘上;

读取流程:

用户向客户端提出读取请求

client向namenode请求文件的所有信息

namenode将给client这个文件的块列表,以及存储各个块的数据节点清单(按照与client的距离排序)

client从最近的datanode下载所需的块。

YARN

简称yarn,一种资源协调者,是hadoop的资源管理器

ResourceManager(RM):整个集群资源的老大

ApplicationMaster(AM):单个任务运行的老大

NodeManager(NM):单个节点服务器资源老大

Container:容器,相当于一台独立的服务器,里面封装了任务运行所需要的资源,如内存、cpu、磁盘、网络等。

HDFS,YARN,MapReduce三者关系

大数据技术生态系统

)Sqoop:Sqoop 是一款开源的工具,主要用于在 Hadoop、Hive 与传统的数据库(MySQL)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL,Oracle 等)中的数据导进到 Hadoop 的 HDFS 中,也可以将 HDFS 的数据导进到关系型数据库中。

2)Flume:Flume 是一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume 支持在日志系统中定制各类数据发送方,用于收集数据;

3)Kafka:Kafka 是一种高吞吐量的分布式发布订阅消息系统;

4)Spark:Spark 是当前最流行的开源大数据内存计算框架。可以基于 Hadoop 上存储的大数据进行计算。

5)Flink:Flink 是当前最流行的开源大数据内存计算框架。用于实时计算的场景较多。

6)Oozie:Oozie 是一个管理 Hadoop 作业(job)的工作流程调度管理系统。

7)Hbase:HBase 是一个分布式的、面向列的开源数据库。HBase 不同于一般的关系数据库,

它是一个适合于非结构化数据存储的数据库。

8)Hive:Hive 是基于 Hadoop 的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的 SQL 查询功能,可以将 SQL 语句转换为 MapReduce 任务进行运行。其优点是学习成本低,可以通过类 SQL 语句快速实现简单的 MapReduce 统计,不必开发专门的 MapReduce 应用,十分适合数据仓库的统计分析。

9)ZooKeeper:它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、分布式同步、组服务等。

相关推荐
憨子周1 小时前
2M的带宽怎么怎么设置tcp滑动窗口以及连接池
java·网络·网络协议·tcp/ip
霖雨2 小时前
使用Visual Studio Code 快速新建Net项目
java·ide·windows·vscode·编辑器
SRY122404192 小时前
javaSE面试题
java·开发语言·面试
Fiercezm3 小时前
JUC学习
java
无尽的大道3 小时前
Java 泛型详解:参数化类型的强大之处
java·开发语言
ZIM学编程3 小时前
Java基础Day-Sixteen
java·开发语言·windows
我不是星海3 小时前
1.集合体系补充(1)
java·数据结构
P.H. Infinity3 小时前
【RabbitMQ】07-业务幂等处理
java·rabbitmq·java-rabbitmq
爱吃土豆的程序员3 小时前
java XMLStreamConstants.CDATA 无法识别 <![CDATA[]]>
xml·java·cdata
2401_857610034 小时前
多维视角下的知识管理:Spring Boot应用
java·spring boot·后端