Hadoop理论及实践-HDFS四大组件关系(参考Hadoop官网)

NameNode(名称节点,Master主节点)

NameNode主要功能

1、 NameNode负责管理HDFS文件系统的元数据,包括文件,目录,块信息等。**它将元数据Fsimage与Edit_log持久化到硬盘上。**一个是Fsimage(镜像文件),一个是Edit_log(操作日志)。

Fsimage是一个静态映像,保存了文件系统的整体状态信息,包括文件、目录结构、权限、块信息等,它记录了文件和目录的层次结构以及其属性;

edit_log则包含了最近发生的文件系统变更的日志记录。通过这两个文件,NameNode能够恢复文件系统的状态。(下头有一个小案例)

**2、**当客户端请求读取文件时,NameNode会确定该文件的位置信息,并将这些信息返回给客户端,以便客户端可以直接与相应的DataNode进行通信并获取所需数据。

突然断电恢复时HDFS做了什么(IM理论)

当突然断电并重新启动时,Fsimage与Edit_log在恢复中起着很大的作用。

第一步,Fsimage是HDFS的元数据镜像文件,保存了文件系统整体状态信息,包括文件、目录结构,权限,块信息等,他记录了文件和目录层次结构及属性。HDFS重启时,会先读取NameNode中的Fsimage文件,恢复文件系统初始状态。

第二步,Edit_log是HDFS的事务日志文件,用于记录所有对文件系统的修改操作,例如创建,删除,重命名文件或者目录等。每个修改操作都被追加到Editlog中,确保对文件系统更改的持久化记录。HDFS重启后,程序会读取Editlog文件,并将其中的每个操作应用到初始状态的文件系统中,以此恢复文件系统的最新状态。

在HDFS突然断电并重新启动时,系统通过读取Fsimage文件来恢复文件系统的初始状态,然后再将Editlog中的操作应用到初始状态的文件系统,实现文件系统的完全恢复。保证了数据的一致性和可靠性,避免数据丢失或损坏。(很重要!)

Checkpoint机制(检查点)

**checkpoint功能:**HDFS为了将Fsimage与Editlog文件合并成完整的文件系统镜像而使用的一种机制。

Edits文件和Fsimage文件的合并关系是通过Checkpoint过程实现的,Checkpoint将当前的Fsimage文件和最新的Edits文件合并为一个新的Fsimage文件,从而得到最新的文件系统镜像。

**checkpoint流程:**执行Checkpoint过程时,HDFS会首先将当前的Fsimage文件复制到一个临时的目录中,随后将新的editlog文件追加到复制的Fsimage文件中,最后生成一个新的Fsimage文件。

这个过程中确保了原始Fsimage文件不会被修改,同时保证了最新文件系统操作记录被正确应用到镜像中。

Secondary NameNode

备注:老版本的Hadoop是Secondary NameNode干这个合并的活,协助NameNode执行一些管理任务。S N定期合并NameNode的Fsimage文件和Edits文件,生成新的Fsimage文件,以减少NameNode的启动时间和内存占用。

NameNode HA机制(High Availability)(IM)

NameNode HA是HDFS的高可用性解决方案,它通过在集群中配置多个NameNode实例来提供故障转移和无缝切换的能力。

在NN HA配置中,有两个NameNode实例,一个被称为Active NameNode ,另一个被称为Standby NameNode。 Active NameNode负责处理客户端的请求,维护文件系统的元数据以及管理数据块的位置信息。Standby NameNode则处于备用状态,与Active NameNode保持同步,并监控其健康状态。

在生产环境中,为避免NameNode宕机,HDFS无法提供服务,产生单点故障问题,因此HDFS通常会配置了一个备用的NameNode被称为Standby NameNode,用于提供冗余和故障转移。

DataNode(数据节点,worker节点)

DataNode主要功能

1、DataNode是存储实际数据块的节点,它负责在本地磁盘上存储和管理数据块。

2、与namenode保持心跳机制,同时上报块信息,执行namenode的操作

DataNode通过与NameNode的交互,定期向NameNode报告所存储的数据块的列表和状态信息,发送心跳信号和块报告,以确保数据的完整性和可用性。

3、存储和提供数据块给客户端

bash 复制代码
timeout  = 2 * heartbeat.recheck.interval + 10 * dfs.heartbeat.interval
心跳 超时时间 10分钟 + 30秒

ZKFC(ZooKeeper故障转移控制器)IM

ZCFC主要功能

ZKFC是HDFS的故障转移组件,它通过监视和控制活动NameNode和备用NameNode之间的状态来实现自动故障转移。

它在主备NameNode之间进行状态同步,以便在主节点发生故障时,能够快速切换到备用节点。

ZKFC与和JournalNode紧密合作,通过与其通信来实现高可用性和容错性。

JournalNode(日志节点)

JournalNode的功能用于存储和管理NameNode的操作日志,确保元数据更新的持久性。

它接收来自NameNode的事务日志,并将其写入本地磁盘和共享存储中,以便在需要时进行恢复。分布式系统中,NameNode和其他JournalNode一起工作,构成了分布式的高可用日志系统,用于保证元数据的一致性和可靠性。

组件之间的联系

NameNode是HDFS的核心,负责管理文件系统的命名空间和元数据。它通过与DataNode进行通信来读取和写入数据块。

DataNode存储实际的数据块,向NameNode报告数据块的状态和位置信息。

ZKFC通过与NameNode和JournalNode的交互,实现主备节点之间的状态同步和故障转移。

JournalNode负责存储和管理NameNode的操作日志,为HDFS提供持久性和可靠性。它与NameNode和其他JournalNode一起工作,构成了分布式的高可用日志系统。

参考文章

https://hadoop.apache.org/ hadoop官网

https://www.cnblogs.com/shun7man/p/11521290.html

Hadoop 三大组件之HDFS_hdfs组件_不忘初欣丶的博客-CSDN博客

相关推荐
武子康15 分钟前
大数据-16-Hive HiveServer2 HS2 允许客户端远程执行HiveHQL HCatalog
大数据·后端·apache hive
白总Server1 小时前
Web 架构之 GraphQL 与 REST API 对比与选型
java·大数据·前端·javascript·后端·架构·graphql
IT技术范1 小时前
2025商旅平台排行:国内主流商旅平台解析
大数据·人工智能
天氰色等烟雨1 小时前
Spring AI 聊天记忆功能实战(二):自定义 Redis 聊天记忆外部存储实现
大数据
天氰色等烟雨1 小时前
Spring AI 聊天记忆功能实战(一):从接口设计到生产实践
大数据
安心联-车辆监控管理系统1 小时前
渣土车辆定位与监管:科技赋能城市建筑垃圾管理
大数据·人工智能·科技
百胜软件@百胜软件2 小时前
深度融合数智化,百胜软件联合华为云加速零售行业转型升级
大数据·华为云·零售
学不好python的小猫3 小时前
Flink 词频统计
大数据·flink
雷神乐乐3 小时前
Hive的分区表(静态分区、动态分区)、分桶表、四种排序方式和数据加载方式
数据仓库·hive·hadoop
腾讯云大数据3 小时前
平均性能提升70%,盖雅工场基于腾讯云数据仓库TCHouse-D构建实时报表平台
大数据·数据仓库·云计算·腾讯云