Hadoop 2.7.3 集群部署、配置与环境变量调优全流程总结

本次完成了基于 master/slave1/slave2 三节点的 Hadoop 分布式集群部署,核心涵盖集群基础配置、环境变量调优、问题排查与验证,最终实现集群全功能可用,以下是完整总结:

一、核心部署与配置流程

1. 基础环境准备(前置步骤)

  • 节点规划:master 作为 NameNode/ResourceManager,slave1/slave2 作为 DataNode/NodeManager;

  • 基础依赖 :全节点安装 JDK(master 路径 /usr/java/jdk-12.0.2,slave1/slave2 路径 /usr/local/java/jdk-12.0.2),确保 SSH 互通;

  • Hadoop 安装 :全节点统一将 Hadoop 2.7.3 安装至 /home/hadoop/hadoop-2.7.3,保证 HADOOP_HOME 路径一致。

2. 核心配置文件同步

  • 在 master 节点完成 core-site.xml/hdfs-site.xml/mapred-site.xml/yarn-site.xml 等核心配置文件编辑;

  • 通过 scp 命令将配置文件同步至 slave1/slave2,并执行 chown hadoop:hadoop 修正文件归属,确保 hadoop 用户有权访问。

3. 数据目录创建

  • master 节点创建 tmp/namenode 目录,slave1/slave2 创建 tmp/datanode 目录,路径统一为 /home/hadoop/hadoop-2.7.3/xxx,保证配置文件中路径与实际目录匹配。

4. 集群启动

  • 在 master 节点执行 hdfs namenode -format 完成 NameNode 格式化(仅执行一次);

  • 执行 start-dfs.sh 启动 HDFS 集群、start-yarn.sh 启动 YARN 集群,解决密码输入错误、主机指纹验证等启动问题,最终实现 master 节点 NameNode/ResourceManager/SecondaryNameNode 进程,slave 节点 DataNode/NodeManager 进程正常运行。

二、环境变量调优(核心解决的问题)

1. 核心问题与根源

  • 初始问题:slave1/slave2 执行 jps/hadoop 命令提示 command not found,远程执行命令时环境变量未加载;

  • 根本原因:

① 各节点 JDK 路径不一致(master 与 slave 路径不同);

② 非交互式 shell(su hadoop -c)默认不加载 /etc/profile 系统级环境变量;

③ slave 节点 ~/.bashrc 为空,未配置自动加载环境变量逻辑。

2. 调优方案(分节点适配+强制加载)

  • 系统级配置(/etc/profile)

    • master 节点配置 JAVA_HOME=/usr/java/jdk-12.0.2,slave1/slave2 配置 JAVA_HOME=/usr/local/java/jdk-12.0.2

    • 全节点统一配置 HADOOP_HOME=/home/hadoop/hadoop-2.7.3 及相关路径,将 JDK/Hadoop 二进制目录加入 PATH

  • 用户级配置(/home/hadoop/.bashrc)

    • 新增 source /etc/profile 强制加载系统环境变量;

    • 补充 JDK/Hadoop 环境变量(与节点实际路径匹配),确保交互式/非交互式 shell 均能识别命令;

    • 修正文件归属为 hadoop:hadoop,保证权限合规。

  • 执行方式优化 :远程执行命令时使用 su - hadoop -c(登录式 shell),触发环境变量完整加载。

3. 调优成果

  • 全节点 jps/hadoop/hdfs/yarn 等命令可直接执行,无需绝对路径;

  • 本地/远程执行命令均无 command not found 报错,hadoop version 可正常输出版本信息;

  • master/slave1/slave2 进程查看、集群启停操作统一且便捷。

三、关键验证与最终状态

1. 进程验证

  • master 节点 jps 显示:NameNode、DataNode、ResourceManager、NodeManager、SecondaryNameNode;

  • slave1/slave2 节点 jps 显示:DataNode、NodeManager;

  • 所有核心进程无缺失,集群运行稳定。

2. 功能验证

  • 全节点 hadoop version 输出 2.7.3 版本信息,配置文件语法检查(hadoop configcheck)无错误;

  • 远程执行 su - hadoop -c 'jps'/su - hadoop -c 'hadoop version' 均正常,环境变量加载无异常。

3. 最终集群状态

  • 基础部署:三节点分布式集群架构搭建完成,配置文件同步且权限合规;

  • 环境调优:全节点环境变量适配完成,命令执行无阻碍;

  • 功能可用:HDFS 分布式存储、YARN 资源管理功能就绪,可开展文件操作、MapReduce 任务提交等实验。

四、核心总结要点

  1. 路径一致性 :Hadoop 路径(HADOOP_HOME)全节点必须统一,JDK 路径(JAVA_HOME)只需匹配节点自身实际路径即可;

  2. 环境变量 加载 :非交互式 shell 需通过 su - 登录式执行,或在 .bashrc 中强制加载 /etc/profile

  3. 权限合规 :所有 Hadoop 相关文件/目录归属必须为 hadoop:hadoop,避免权限不足导致进程启动失败;

  4. 启动核心 :NameNode 格式化仅执行一次,集群启动优先解决 SSH 密码/指纹验证问题,进程重复启动提示(Stop it first)为正常现象。

本次集群部署从基础配置到环境调优,解决了路径不一致、环境变量加载、远程命令执行等核心问题,最终实现三节点 Hadoop 集群全功能可用,符合分布式集群部署的最佳实践。

相关推荐
菜鸟小码8 小时前
Hadoop大数据时代的底座和基石
大数据·hadoop·分布式
YJlio1 天前
1 4.1 微软商店的使用(Microsoft Store:下载/安装/管理应用与游戏)
运维·hive·hadoop·windows·游戏·microsoft·计算机外设
sunxunyong2 天前
kyuubi 连接kerberos集群配置
hadoop
坚持就完事了2 天前
Hadoop实战初步学习
hadoop·学习
It's Q2 天前
hive学习分区&&函数
hive·hadoop·学习
lifewange3 天前
Hadoop 全套常用 Shell 命令完整版
大数据·hadoop·npm
lifewange3 天前
Hadoop 完整入门详解
大数据·hadoop·分布式
菜鸟小码3 天前
Hive数据模型、架构、表类型与优化策略
hive·hadoop·架构
IT从业者张某某3 天前
基于Docker的hadoop容器安装hive并测试
hive·hadoop·docker
IT从业者张某某3 天前
基于Docker的hadoop容器安装zookeeper
hadoop·docker·zookeeper