Hadoop 3.X HA集群部署

准备工作

1、确认各个服务器网络是否互通、时间是否同步

2、确认各个节点部署那些组件

|-----------------|------------|----------------------------------------------------------------------------------------------|
| ip地址 | host名 | 部署组件 |
| 192.168.190.130 | h202406131 | NameNode ResourceManager QuorumPeerMain JournalNode DFSZKFailoverController JobHistoryServer |
| 192.168.190.131 | h202406132 | NameNode ResourceManager QuorumPeerMain JournalNode DFSZKFailoverController JobHistoryServer |
| 192.168.190.132 | h202406133 | QuorumPeerMain JournalNode DataNode NodeManager |
| 192.168.190.133 | h202406134 | DataNode NodeManager |
| 192.168.190.134 | h202406135 | DataNode NodeManager |
| 192.168.190.135 | h202406136 | DataNode NodeManager |
| 192.168.190.136 | h202406137 | DataNode NodeManager |
| 192.168.190.137 | h202406138 | DataNode NodeManager |

3、配置各个节点的 /etc/hosts

4、配置用户的免密登录

5、确认各个组件版本

|-----------|-------|
| Hadoop | 3.3.1 |
| zookeeper | 3.7.0 |
| jdk | 1.8 |

6、确认安装目录,并配置环境变量

安装jdk

bash 复制代码
# 安装java
yum install -y java-1.8.0-openjdk.x86_64


# 配置环境变量
vim /etc/profile

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.372.b07-1.el7_9.x86_64/jre
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin

# 验证安装
java -version

安装zookeerper

下载路径:http://archive.apache.org/dist/zookeeper/

bash 复制代码
cd /data
tar -xf zookeeper-3.7.0.tar.gz
mv zookeeper-3.7.0 zookeeper

安装hadoop

下载命令:

wget https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1-aarch64.tar.gz

启动步骤

1、各个zk节点启动zk

zk启动命令:./bin/zkServer.sh start

zk状态查询命令:./bin/zkServer.sh status

2、各个journalnode节点启动journalnode

启动命令:hadoop-daemon.sh start journalnode

3、在nn1节点上格式化、并启动namenode

初始化namenode:hdfs namenode -format

启动namenode:hadoop-deaemon.sh start namedoe

4、在nn2节点上格同步nn1的节点信息并启动namenode

同步nn1:hdfs namenode -bootstarpStandby

启动namenode:hadoop-deaemon.sh start namedoe

5、关闭nn1和nn2的namenode并初始化HA在zk中的状态

初始化zkfc:hdfs zkfc -formatZK

6、nn1启动历史服务器

JobHistoryServer启动:mr-jobhistory-daemon.sh start JobHistoryServer

7、nn1和nn2启动zkfc

启动zkfc:hadoop-deaemon.sh start zkfc

8、datanode节点启动datanode服务

datanode启动:hadoop-deaemon.sh start datanode

9、nn1和nn2节点启动 resourcemanager

resourcemanager启动:yarn-daemon.sh start resourcemanager

10、NodeManager节点启动NodeManager服务

NodeManager启动:yarn-daemon.sh start nodemanager

相关推荐
AC赳赳老秦3 分钟前
2026国产算力新周期:DeepSeek实战适配英伟达H200,引领大模型训练效率跃升
大数据·前端·人工智能·算法·tidb·memcache·deepseek
Fleshy数模10 分钟前
MySQL 表创建全攻略:Navicat 图形化与 Xshell 命令行双模式实践
linux·mysql
鹏说大数据13 分钟前
Spark 和 Hive 的关系与区别
大数据·hive·spark
B站计算机毕业设计超人17 分钟前
计算机毕业设计Hadoop+Spark+Hive招聘推荐系统 招聘大数据分析 大数据毕业设计(源码+文档+PPT+ 讲解)
大数据·hive·hadoop·python·spark·毕业设计·课程设计
B站计算机毕业设计超人18 分钟前
计算机毕业设计hadoop+spark+hive交通拥堵预测 交通流量预测 智慧城市交通大数据 交通客流量分析(源码+LW文档+PPT+讲解视频)
大数据·hive·hadoop·python·spark·毕业设计·课程设计
AI架构师小马18 分钟前
Hive调优手册:从入门到精通的完整指南
数据仓库·hive·hadoop·ai
数据架构师的AI之路19 分钟前
深入了解大数据领域Hive的HQL语言特性
大数据·hive·hadoop·ai
神梦流41 分钟前
GE 引擎的非标准数据流处理:稀疏张量与自定义算子在图优化中的语义保持
linux·运维·服务器
L***一42 分钟前
大数据技术专业中专生职业发展路径探析
大数据
woshikejiaih44 分钟前
**播客听书与有声书区别解析2026指南,适配不同场景的音频
大数据·人工智能·python·音视频