Hadoop 2.7.3 集群部署、配置与环境变量调优全流程总结

本次完成了基于 master/slave1/slave2 三节点的 Hadoop 分布式集群部署,核心涵盖集群基础配置、环境变量调优、问题排查与验证,最终实现集群全功能可用,以下是完整总结:

一、核心部署与配置流程

1. 基础环境准备(前置步骤)

  • 节点规划:master 作为 NameNode/ResourceManager,slave1/slave2 作为 DataNode/NodeManager;

  • 基础依赖 :全节点安装 JDK(master 路径 /usr/java/jdk-12.0.2,slave1/slave2 路径 /usr/local/java/jdk-12.0.2),确保 SSH 互通;

  • Hadoop 安装 :全节点统一将 Hadoop 2.7.3 安装至 /home/hadoop/hadoop-2.7.3,保证 HADOOP_HOME 路径一致。

2. 核心配置文件同步

  • 在 master 节点完成 core-site.xml/hdfs-site.xml/mapred-site.xml/yarn-site.xml 等核心配置文件编辑;

  • 通过 scp 命令将配置文件同步至 slave1/slave2,并执行 chown hadoop:hadoop 修正文件归属,确保 hadoop 用户有权访问。

3. 数据目录创建

  • master 节点创建 tmp/namenode 目录,slave1/slave2 创建 tmp/datanode 目录,路径统一为 /home/hadoop/hadoop-2.7.3/xxx,保证配置文件中路径与实际目录匹配。

4. 集群启动

  • 在 master 节点执行 hdfs namenode -format 完成 NameNode 格式化(仅执行一次);

  • 执行 start-dfs.sh 启动 HDFS 集群、start-yarn.sh 启动 YARN 集群,解决密码输入错误、主机指纹验证等启动问题,最终实现 master 节点 NameNode/ResourceManager/SecondaryNameNode 进程,slave 节点 DataNode/NodeManager 进程正常运行。

二、环境变量调优(核心解决的问题)

1. 核心问题与根源

  • 初始问题:slave1/slave2 执行 jps/hadoop 命令提示 command not found,远程执行命令时环境变量未加载;

  • 根本原因:

① 各节点 JDK 路径不一致(master 与 slave 路径不同);

② 非交互式 shell(su hadoop -c)默认不加载 /etc/profile 系统级环境变量;

③ slave 节点 ~/.bashrc 为空,未配置自动加载环境变量逻辑。

2. 调优方案(分节点适配+强制加载)

  • 系统级配置(/etc/profile)

    • master 节点配置 JAVA_HOME=/usr/java/jdk-12.0.2,slave1/slave2 配置 JAVA_HOME=/usr/local/java/jdk-12.0.2

    • 全节点统一配置 HADOOP_HOME=/home/hadoop/hadoop-2.7.3 及相关路径,将 JDK/Hadoop 二进制目录加入 PATH

  • 用户级配置(/home/hadoop/.bashrc)

    • 新增 source /etc/profile 强制加载系统环境变量;

    • 补充 JDK/Hadoop 环境变量(与节点实际路径匹配),确保交互式/非交互式 shell 均能识别命令;

    • 修正文件归属为 hadoop:hadoop,保证权限合规。

  • 执行方式优化 :远程执行命令时使用 su - hadoop -c(登录式 shell),触发环境变量完整加载。

3. 调优成果

  • 全节点 jps/hadoop/hdfs/yarn 等命令可直接执行,无需绝对路径;

  • 本地/远程执行命令均无 command not found 报错,hadoop version 可正常输出版本信息;

  • master/slave1/slave2 进程查看、集群启停操作统一且便捷。

三、关键验证与最终状态

1. 进程验证

  • master 节点 jps 显示:NameNode、DataNode、ResourceManager、NodeManager、SecondaryNameNode;

  • slave1/slave2 节点 jps 显示:DataNode、NodeManager;

  • 所有核心进程无缺失,集群运行稳定。

2. 功能验证

  • 全节点 hadoop version 输出 2.7.3 版本信息,配置文件语法检查(hadoop configcheck)无错误;

  • 远程执行 su - hadoop -c 'jps'/su - hadoop -c 'hadoop version' 均正常,环境变量加载无异常。

3. 最终集群状态

  • 基础部署:三节点分布式集群架构搭建完成,配置文件同步且权限合规;

  • 环境调优:全节点环境变量适配完成,命令执行无阻碍;

  • 功能可用:HDFS 分布式存储、YARN 资源管理功能就绪,可开展文件操作、MapReduce 任务提交等实验。

四、核心总结要点

  1. 路径一致性 :Hadoop 路径(HADOOP_HOME)全节点必须统一,JDK 路径(JAVA_HOME)只需匹配节点自身实际路径即可;

  2. 环境变量 加载 :非交互式 shell 需通过 su - 登录式执行,或在 .bashrc 中强制加载 /etc/profile

  3. 权限合规 :所有 Hadoop 相关文件/目录归属必须为 hadoop:hadoop,避免权限不足导致进程启动失败;

  4. 启动核心 :NameNode 格式化仅执行一次,集群启动优先解决 SSH 密码/指纹验证问题,进程重复启动提示(Stop it first)为正常现象。

本次集群部署从基础配置到环境调优,解决了路径不一致、环境变量加载、远程命令执行等核心问题,最终实现三节点 Hadoop 集群全功能可用,符合分布式集群部署的最佳实践。

相关推荐
极光代码工作室19 小时前
基于大数据的交通流量分析系统
大数据·hadoop·python·数据分析·数据可视化
卷毛迷你猪1 天前
快速实验篇(A1)干旱气象数据上传至HDFS
大数据·hadoop·hdfs
头歌实践平台1 天前
Hadoop开发环境搭建
java·大数据·hadoop
KANGBboy2 天前
hadoop冷热数据分离
大数据·hadoop·分布式
WL_Aurora2 天前
YARN资源调度器深度解析 | 架构原理、作业提交流程
大数据·hadoop·yarn
vivo互联网技术3 天前
vivo 万台规模 YARN 集群升级实践
大数据·hadoop·yarn
黄金矿工Kingliu3 天前
经典hadoop案例应用(命令实现版)
大数据·服务器·hadoop
卷毛迷你猪3 天前
小肥柴的Hadoop之旅 快速实验篇(0-1)虚拟机模拟完全分布式环境搭建
大数据·hadoop·分布式
飞火流星020273 天前
Hadoop3.1.1集群+Hive3.1.0环境安装
大数据·hadoop·分布式·hadoop3.1.1集群安装·hive3.1.0安装
咖啡里的茶i3 天前
在Docker环境中安装Hadoop cluster 实验报告一
hadoop·docker·容器