理解HDFS的核心不是背概念,而是搞懂"文件怎么切、副本怎么存、坏了怎么修"这三个问题。其告别复杂的环境配置。本文将用"3步拆解法"带你从"文件上传"到"副本管理",彻底搞懂HDFS的"分布式魔法"。
一、步骤一:看懂HDFS架构------谁在"指挥"文件存储?
核心角色分工
1. Client:文件的"切割工"和"搬运工"
- 上传文件时,按128MB默认大小切成Block(最后一块不足128MB也独立存储);
- 与NameNode"讨说法"(获取存储位置),与DataNode"打交道"(读写数据);
- 提供命令行工具(如
hdfs dfs -put localfile /user/hadoop/上传文件)。
2. NameNode:集群的"大脑"
- 管理元数据:记录文件→Block映射(如
/user/file.txt由Block1、Block2组成)、Block→DataNode位置(如Block1在DataNode A和B); - 决定副本存放:根据机架感知策略分配DataNode,避免"把鸡蛋放一个篮子"。
3. DataNode:数据的"仓库管理员"
- 存储实际Block数据(每个Block默认存3个副本);
- 定期向NameNode"汇报工作"(心跳+Block列表),证明自己活着。
4. Secondary NameNode:NameNode的"秘书"
- 不是热备!主要合并元数据日志(fsimage+edits),帮NameNode"减负"。
二、步骤二:文件上传"潜规则"------Block怎么切?副本怎么存?
1. Block切割:128MB的"最优解"
为什么是128MB?
- 太小:Block数量多,NameNode内存存不下(每个Block元数据约150字节,1亿个Block需15GB内存);
- 太大:单个Block传输时间长,浪费带宽(如1GB Block在100Mbps网络需80秒)。
- 举例:300MB文件会被切成3个Block(128MB + 128MB + 44MB)。
2. 副本存放:机架感知策略"防坑"
默认3个副本的存放规则(以Client在集群内为例):
- 副本1:存Client所在的DataNode(如果Client不在集群,随机选一个);
- 副本2:存与副本1不同机架的DataNode(抗机架断电风险);
- 副本3:存与副本2同机架的另一个DataNode(平衡性能与容错)。
示意图:
机架1:DataNode A(副本1)、DataNode C
机架2:DataNode B(副本2)、DataNode D(副本3)
三、步骤三:副本管理与容错------数据丢了怎么办?
1. 副本数量谁说了算?
- 全局配置 :
hdfs-site.xml中的dfs.replication参数(默认3); - 文件级覆盖 :上传时用
-D dfs.replication=2指定(如hdfs dfs -D dfs.replication=2 -put file /)。
2. NameNode的"副本修复术"
- 监控心跳:DataNode每3秒发一次心跳,10分钟没响应则标记为"宕机";
- 检查副本数:若某Block副本数<配置值(如3→2),NameNode会选一个健康DataNode复制新副本;
- 删除多余副本:若副本数>配置值(如3→4),自动删除最"闲"的DataNode上的副本。
3. 数据错误校验:CRC32C"防篡改"智优达
每个Block会生成CRC32C校验和,存储在.blk_<id>.meta文件中:
-
下载时自动校验,若不一致则从其他副本下载;
-
客户端命令:
hdfs dfs -checksum /user/file.txt查看校验和。