用zookpeer搭建Hadoop的HA集群,组件启动的启动顺序是什么?

在 ZooKeeper 搭建 Hadoop HA 集群时,启动顺序非常重要,错误的顺序会导致服务无法正常启动或无法实现高可用。

Hadoop HA 集群的正确启动顺序

第1步:启动 ZooKeeper 集群

在所有 ZooKeeper 节点上启动:

bash 复制代码
# 在每台 ZK 节点上执行
zkServer.sh start

# 检查状态
zkServer.sh status

验证:

bash 复制代码
# 任意节点执行,检查 ZK 集群状态
echo stat | nc hadoop101 2181

第2步:启动 JournalNode 集群

在所有 JournalNode 节点上启动:

bash 复制代码
# 在 hadoop101、hadoop102、hadoop103 上分别执行
hdfs --daemon start journalnode

# 检查 JournalNode 进程
jps | grep JournalNode

第3步:格式化并启动第一个 NameNode

在 hadoop101 上执行:

bash 复制代码
# 1. 格式化 NameNode(仅在首次部署时执行)
hdfs namenode -format

# 2. 启动第一个 NameNode
hdfs --daemon start namenode

第4步:在备用 NameNode 上同步元数据

在 hadoop102 上执行:

bash 复制代码
# 同步元数据从 active NameNode
hdfs namenode -bootstrapStandby

# 启动备用 NameNode
hdfs --daemon start namenode

第5步:启动所有 DataNode

在所有 DataNode 节点上启动:

bash 复制代码
# 使用脚本启动所有 DataNode
start-dfs.sh

# 或者手动在每个节点启动
hdfs --daemon start datanode

第6步:初始化 ZKFC 并启动故障转移控制器

在任意 NameNode 节点上执行:

bash 复制代码
# 在 ZK 中初始化 HA 状态(仅在首次部署时执行)
hdfs zkfc -formatZK

# 在两个 NameNode 上启动 ZKFC
hdfs --daemon start zkfc

完整的启动脚本示例

自动化启动脚本

bash 复制代码
#!/bin/bash
echo "=== 启动 Hadoop HA 集群 ==="

echo "1. 启动 ZooKeeper 集群..."
for host in hadoop101 hadoop102 hadoop103; do
    ssh $host "zkServer.sh start"
done

echo "2. 启动 JournalNode..."
for host in hadoop101 hadoop102 hadoop103; do
    ssh $host "hdfs --daemon start journalnode"
done

echo "3. 启动 NameNode..."
ssh hadoop101 "hdfs --daemon start namenode"
ssh hadoop102 "hdfs --daemon start namenode"

echo "4. 启动 DataNode..."
start-dfs.sh

echo "5. 启动 ZKFC..."
ssh hadoop101 "hdfs --daemon start zkfc"
ssh hadoop102 "hdfs --daemon start zkfc"

echo "=== 启动完成 ==="

验证集群状态

bash 复制代码
# 检查 NameNode HA 状态
hdfs haadmin -getServiceState nn1
hdfs haadmin -getServiceState nn2

# 检查集群状态
hdfs dfsadmin -report

# 检查 ZKFC 状态
hdfs haadmin -checkHealth nn1
hdfs haadmin -checkHealth nn2

停止顺序(与启动顺序相反)

bash 复制代码
#!/bin/bash
echo "=== 停止 Hadoop HA 集群 ==="

echo "1. 停止 DataNode..."
stop-dfs.sh

echo "2. 停止 ZKFC..."
ssh hadoop101 "hdfs --daemon stop zkfc"
ssh hadoop102 "hdfs --daemon stop zkfc"

echo "3. 停止 NameNode..."
ssh hadoop101 "hdfs --daemon stop namenode"
ssh hadoop102 "hdfs --daemon stop namenode"

echo "4. 停止 JournalNode..."
for host in hadoop101 hadoop102 hadoop103; do
    ssh $host "hdfs --daemon stop journalnode"
done

echo "5. 停止 ZooKeeper..."
for host in hadoop101 hadoop102 hadoop103; do
    ssh $host "zkServer.sh stop"
done

echo "=== 停止完成 ==="

关键注意事项

1. 首次部署的特殊步骤

  • hdfs namenode -format(只在第一次执行)
  • hdfs namenode -bootstrapStandby(只在第一次执行)
  • hdfs zkfc -formatZK(只在第一次执行)

2. 日常重启顺序

日常维护时,如果已经初始化过,只需要:

  1. ZooKeeper → 2. JournalNode → 3. NameNode → 4. DataNode → 5. ZKFC

3. 验证要点

bash 复制代码
# 确保所有服务都正常启动
jps

# 预期应该看到(在不同节点):
# NameNode 节点: NameNode, JournalNode, ZKFC
# DataNode 节点: DataNode, JournalNode
# ZK 节点: QuorumPeerMain

按照这个顺序启动,您的 Hadoop HA 集群应该能够正常启动并实现高可用功能。

相关推荐
智能相对论10 小时前
CES深度观察丨智能清洁的四大关键词:变形、出户、体验以及生态协同
大数据·人工智能
焦耳热科技前沿11 小时前
北京科技大学/理化所ACS Nano:混合价态Cu₂Sb金属间化合物实现高效尿素电合成
大数据·人工智能·自动化·能源·材料工程
min18112345612 小时前
深度伪造内容的检测与溯源技术
大数据·网络·人工智能
武子康12 小时前
大数据-209 深度理解逻辑回归(Logistic Regression)与梯度下降优化算法
大数据·后端·机器学习
数据智研13 小时前
【数据分享】(2005–2016年)基于水资源承载力的华北地区降水与地下水要素数据
大数据·人工智能·信息可视化·数据分析
TDengine (老段)14 小时前
TDengine Python 连接器入门指南
大数据·数据库·python·物联网·时序数据库·tdengine·涛思数据
亚古数据15 小时前
亚古数据:查询斯里兰卡公司可以获取什么文件和信息?
大数据·亚古数据·斯里兰卡公司查询
WLJT12312312315 小时前
守护自然与滋养民生的绿色之路
大数据·安全
min18112345615 小时前
PC端零基础跨职能流程图制作教程
大数据·人工智能·信息可视化·架构·流程图
静听松涛13315 小时前
中文PC端多人协作泳道图制作平台
大数据·论文阅读·人工智能·搜索引擎·架构·流程图·软件工程