01-Hadoop 核心三剑客通俗指南:从“单机搬砖”到“包工队”

01-Hadoop 核心三剑客通俗指南:从"单机搬砖"到"包工队"

在普通电脑上,我们处理数据就像是一个人在单干。比如你要统计一本 1000 页书里有多少个"爱"字,你可以自己一页页翻。

但如果是 100 亿页 的书呢?一个人干到死也干不完。这时不仅需要把书撕开存放在不同的房间里,还需要雇很多人同时去数。

Hadoop 就是这套分布式 存储和计算系统的"包工头"。它主要由三个核心组件组成,我们可以把它们看作一个超大型的数据处理工厂


1. HDFS (分布式文件系统) - "巨大的物流仓库"

  • 痛点:硬盘再大也有上限,而且硬盘坏了数据就丢了。
  • HDFS 方案
    • 切块 (Block):把那个 100T 的大文件,切成无数个 128MB 的小块。
    • 分散存储 :把这些小块随机扔到成千上万台普通的服务器(DataNode)里。
    • 冗余备份 (Replication) :为了防丢,默认每个小块存 3 份。坏了一台机器?没事,其他机器上还有备份。
    • NameNode (仓库管理员):有一台特殊的机器负责记账:"文件 A 的第 1 块在机器 X 上,第 2 块在机器 Y 上"。你找数据得先问它。

一句话总结HDFS 让一堆廉价的普通硬盘组合成了一个超级巨大、永不丢失的硬盘。


2. MapReduce (分布式计算模型) - "流水线工人"

  • 痛点:数据分散在 1000 台机器上,怎么统计总共有多少个"爱"字?把数据全拉到一台超级电脑上算?网线会爆的。
  • MapReduce 方案移动计算,而不是移动数据
    • Map (分发任务) :把"数数"的程序发给那 1000 台机器。每台机器只数自己硬盘里那部分数据。
      • 机器 A:我这块有 5 个。
      • 机器 B:我这块有 3 个。
    • Reduce (汇总结果) :把所有机器数出来的结果汇总起来。
      • 总和 = 5 + 3 + ... = 100 亿。

一句话总结既然数据搬不动,就把计算程序派过去算好再回来。


3. YARN (资源调度器) - "工厂 HR / 调度中心"

  • 痛点:这个工厂里既有 MapReduce 在干活,后来又来了 Spark、Flink 等其他工种。大家都抢 CPU 和内存,乱套了。
  • YARN 方案 :它不管具体怎么算,只管分资源
    • MapReduce 任务来了,找 YARN 申请:"我要 100 个 CPU 核,500G 内存"。
    • YARN 看了看工厂现状:"行,批准,你去 1-10 号机器上跑吧"。
    • Spark 任务来了,YARN 说:"现在没空位了,你排队"。

一句话总结YARN 是大管家,统一分配每台机器的算力资源,防止工种打架。


总结

Hadoop 的核心思想就是:分而治之

  • HDFS 解决了不下、容易丢的问题。
  • MapReduce 解决了不完、网络堵的问题。
  • YARN 解决了资源、不好管的问题。
相关推荐
꧁꫞静芽꫞꧂16 小时前
【FISHER 阀门定位器工作原理、保养维护与故障处理全指南】
大数据
aP8PfmxS217 小时前
从零学习Kafka:数据存储
分布式·学习·kafka
TDengine (老段)17 小时前
TDengine IDMP 可视化 —— 面板
大数据·数据库·人工智能·物联网·ai·时序数据库·tdengine
newsxun17 小时前
中创汇联双城峰会圆满举办 多维赋能实体高质量发展
大数据·人工智能
HcreateLabelView18 小时前
引领RFID电子标签打印新时代,打造标识打印系统新标杆
大数据·人工智能
数智化管理手记19 小时前
精益生产合理化建议核心解读:本质、价值与提报规范
大数据·网络·人工智能·低代码·制造
LaughingZhu19 小时前
移动端 AI 的价值重估:设备端智能的拐点
大数据·人工智能·经验分享·搜索引擎·语音识别
必胜刻19 小时前
Redis分布式锁讲解
数据库·redis·分布式
@insist12320 小时前
网络工程师-WLAN 无线局域网全解析
大数据·网络·网络工程师·软考·软件水平考试
airuike12321 小时前
以微见著,精准护航:MEMS IMU助力高铁轨道智能检测
大数据·人工智能·科技