hadoop伪分布式模式

以下是 Hadoop **伪分布式模式(Pseudo-Distributed Mode)**的环境搭建步骤。伪分布式模式下,Hadoop 的各个组件(如 HDFS、YARN、MapReduce)以独立进程运行,但所有服务均部署在单台机器上,模拟多节点集群的行为。这是学习和开发中最常用的模式。

环境准备

操作系统:Linux(如 Ubuntu/CentOS)或 macOS(Windows 需通过 WSL 或虚拟机)。

前置条件

(1)完成 Hadoop 单机模式 的安装(JDK 和 Hadoop 解压配置)。

单机模式可以参考本人博客:

Hadoop 单机模式(Standalone Mode)部署与 WordCount 测试-CSDN博客

(2) 配置 SSH 免密登录(用于启动 Hadoop 服务)。

配置 SSH 免密登录:

Hadoop 需要通过 SSH 启动本地进程

复制代码
# 生成 SSH 密钥(如果已有密钥可跳过)
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

# 将公钥添加到授权列表
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

# 测试免密登录本机
ssh localhost

# 输入 exit 退出

1.修改 Hadoop 配置文件

注意:

接下来配置四个文件,格式严谨,一定不能配置错,否则初始化会出问题,第一次启动hadoop需要初始化,只有一次机会,出现下图即是成功

(1)进入配置目录
复制代码
cd /opt/hadoop/etc/hadoop
(2)编辑 core-site.xml
复制代码
<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/tmp/hadoop-tmp</value>
  </property>
</configuration>
(3)编辑 hdfs-site.xml

配置 HDFS 副本数(伪分布式设为 1):

复制代码
<configuration>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
  <!-- 启用 Web 访问接口 -->
  <property>
    <name>dfs.namenode.http-address</name>
    <value>localhost:9870</value>
  </property>
</configuration>
(4)编辑 mapred-site.xml

指定 MapReduce 使用 YARN 框架

复制代码
<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
</configuration>
(5)编辑 yarn-site.xml

配置 YARN 资源管理:

复制代码
<configuration>
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
  <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>localhost</value>
  </property>
</configuration>

2.初始化 HDFS (*)

首次启动前需格式化 NameNode:

复制代码
hdfs namenode -format

3.编辑 Hadoop 环境配置文件

里面原本的内容全部删掉,修改成下面这个

复制代码
vi $HADOOP_HOME/etc/hadoop/hadoop-env.sh

export HDFS_NAMENODE_USER="root"
export HDFS_DATANODE_USER="root"
export HDFS_SECONDARYNAMENODE_USER="root"
export YARN_RESOURCEMANAGER_USER="root"
export YARN_NODEMANAGER_USER="root"
export JAVA_HOME=/opt/jdk1.8  # 替换为你的实际路径

4.启动或停止服务的相关命令

复制代码
# 启动 hdfs服务
$HADOOP_HOME/sbin/start-dfs.sh

# yarn启动
$HADOOP_HOME/sbin/start-yarn.sh

# 启动所有服务
$HADOOP_HOME/sbin/start-all.sh


# 停止所有服务
$HADOOP_HOME/sbin/stop-all.sh

# 停止 YARN
$HADOOP_HOME/sbin/stop-yarn.sh

# 停止 HDFS
$HADOOP_HOME/sbin/stop-dfs.sh

# 验证进程是否终止
jps
# 应仅剩余 Jps 进程(或无 Hadoop 相关进程)

停止启动命令存放位置

补充:linux里是sh,windows里是cmd

5.启动并查看

根据上一步进入到sbin中,启动所有服务:

复制代码
./start-all.sh

查看:输入jps

(jps就是java里面的进程)

6.网页验证

https://10.1.1.100:9870

hdfs安装成功就可以进入下面页面(因为前面的一个配置文件hdfs-site.xml)

目前为止,hadoop的伪分布式环境部署完成

问题与解决
  • 问题 1 :首次格式化后启动失败,日志报错 Cannot lock storage directory
    原因 :重复格式化导致存储目录冲突。
    解决 :删除 /tmp/hadoop-tmp 目录后重新格式化。

  • 问题 2 :Web UI 端口无法访问。
    原因 :防火墙未关闭或 SELinux 限制。
    解决 :执行 systemctl stop firewalldsetenforce 0 临时禁用安全策略。

  • 问题 3jps 缺少某些进程(如 SecondaryNameNode)。
    原因 :未正确配置 hdfs-site.xml 中的辅助节点地址。
    解决 :添加 <dfs.namenode.secondary.http-address> 配置并重启服务。

实验结论
  1. 成功部署:Hadoop 伪分布式环境所有服务(HDFS、YARN、MapReduce)均正常运行,验证了分布式存储和计算的基本功能。

  2. 配置文件关键性 :核心配置文件(如 hdfs-site.xml)的格式和参数必须严格匹配,否则会导致服务启动失败。

  3. 网络与权限:SSH 免密登录和防火墙/SELinux 设置是服务正常访问的前提条件。

  4. 适用场景:伪分布式模式适合开发测试,但需注意单点故障风险(如所有进程运行在同一台机器)。

相关推荐
YangYang9YangYan1 小时前
2026高职大数据与会计专业学数据分析的技术价值分析
大数据·数据挖掘·数据分析
AI智能探索者6 小时前
揭秘大数据领域特征工程的核心要点
大数据·ai
做cv的小昊7 小时前
【TJU】信息检索与分析课程笔记和练习(8)(9)发现系统和全文获取、专利与知识产权基本知识
大数据·笔记·学习·全文检索·信息检索
AC赳赳老秦8 小时前
DeepSeek 私有化部署避坑指南:敏感数据本地化处理与合规性检测详解
大数据·开发语言·数据库·人工智能·自动化·php·deepseek
C7211BA9 小时前
通义灵码和Qoder的差异
大数据·人工智能
三不原则9 小时前
银行 AIOps 实践拆解:金融级故障自愈体系如何搭建
大数据·运维
大厂技术总监下海11 小时前
数据湖加速、实时数仓、统一查询层:Apache Doris 如何成为现代数据架构的“高性能中枢”?
大数据·数据库·算法·apache
新诺韦尔API14 小时前
手机三要素验证不通过的原因?
大数据·智能手机·api
成长之路51414 小时前
【数据集】分地市全社会用电量统计数据(2004-2022年)
大数据
InfiSight智睿视界14 小时前
门店智能体技术如何破解美容美发连锁的“标准执行困境”
大数据·运维·人工智能