hadoop伪分布式模式

以下是 Hadoop **伪分布式模式(Pseudo-Distributed Mode)**的环境搭建步骤。伪分布式模式下,Hadoop 的各个组件(如 HDFS、YARN、MapReduce)以独立进程运行,但所有服务均部署在单台机器上,模拟多节点集群的行为。这是学习和开发中最常用的模式。

环境准备

操作系统:Linux(如 Ubuntu/CentOS)或 macOS(Windows 需通过 WSL 或虚拟机)。

前置条件

(1)完成 Hadoop 单机模式 的安装(JDK 和 Hadoop 解压配置)。

单机模式可以参考本人博客:

Hadoop 单机模式(Standalone Mode)部署与 WordCount 测试-CSDN博客

(2) 配置 SSH 免密登录(用于启动 Hadoop 服务)。

配置 SSH 免密登录:

Hadoop 需要通过 SSH 启动本地进程

复制代码
# 生成 SSH 密钥(如果已有密钥可跳过)
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

# 将公钥添加到授权列表
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

# 测试免密登录本机
ssh localhost

# 输入 exit 退出

1.修改 Hadoop 配置文件

注意:

接下来配置四个文件,格式严谨,一定不能配置错,否则初始化会出问题,第一次启动hadoop需要初始化,只有一次机会,出现下图即是成功

(1)进入配置目录
复制代码
cd /opt/hadoop/etc/hadoop
(2)编辑 core-site.xml
复制代码
<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/tmp/hadoop-tmp</value>
  </property>
</configuration>
(3)编辑 hdfs-site.xml

配置 HDFS 副本数(伪分布式设为 1):

复制代码
<configuration>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
  <!-- 启用 Web 访问接口 -->
  <property>
    <name>dfs.namenode.http-address</name>
    <value>localhost:9870</value>
  </property>
</configuration>
(4)编辑 mapred-site.xml

指定 MapReduce 使用 YARN 框架

复制代码
<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
</configuration>
(5)编辑 yarn-site.xml

配置 YARN 资源管理:

复制代码
<configuration>
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
  <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>localhost</value>
  </property>
</configuration>

2.初始化 HDFS (*)

首次启动前需格式化 NameNode:

复制代码
hdfs namenode -format

3.编辑 Hadoop 环境配置文件

里面原本的内容全部删掉,修改成下面这个

复制代码
vi $HADOOP_HOME/etc/hadoop/hadoop-env.sh

export HDFS_NAMENODE_USER="root"
export HDFS_DATANODE_USER="root"
export HDFS_SECONDARYNAMENODE_USER="root"
export YARN_RESOURCEMANAGER_USER="root"
export YARN_NODEMANAGER_USER="root"
export JAVA_HOME=/opt/jdk1.8  # 替换为你的实际路径

4.启动或停止服务的相关命令

复制代码
# 启动 hdfs服务
$HADOOP_HOME/sbin/start-dfs.sh

# yarn启动
$HADOOP_HOME/sbin/start-yarn.sh

# 启动所有服务
$HADOOP_HOME/sbin/start-all.sh


# 停止所有服务
$HADOOP_HOME/sbin/stop-all.sh

# 停止 YARN
$HADOOP_HOME/sbin/stop-yarn.sh

# 停止 HDFS
$HADOOP_HOME/sbin/stop-dfs.sh

# 验证进程是否终止
jps
# 应仅剩余 Jps 进程(或无 Hadoop 相关进程)

停止启动命令存放位置

补充:linux里是sh,windows里是cmd

5.启动并查看

根据上一步进入到sbin中,启动所有服务:

复制代码
./start-all.sh

查看:输入jps

(jps就是java里面的进程)

6.网页验证

https://10.1.1.100:9870

hdfs安装成功就可以进入下面页面(因为前面的一个配置文件hdfs-site.xml)

目前为止,hadoop的伪分布式环境部署完成

问题与解决
  • 问题 1 :首次格式化后启动失败,日志报错 Cannot lock storage directory
    原因 :重复格式化导致存储目录冲突。
    解决 :删除 /tmp/hadoop-tmp 目录后重新格式化。

  • 问题 2 :Web UI 端口无法访问。
    原因 :防火墙未关闭或 SELinux 限制。
    解决 :执行 systemctl stop firewalldsetenforce 0 临时禁用安全策略。

  • 问题 3jps 缺少某些进程(如 SecondaryNameNode)。
    原因 :未正确配置 hdfs-site.xml 中的辅助节点地址。
    解决 :添加 <dfs.namenode.secondary.http-address> 配置并重启服务。

实验结论
  1. 成功部署:Hadoop 伪分布式环境所有服务(HDFS、YARN、MapReduce)均正常运行,验证了分布式存储和计算的基本功能。

  2. 配置文件关键性 :核心配置文件(如 hdfs-site.xml)的格式和参数必须严格匹配,否则会导致服务启动失败。

  3. 网络与权限:SSH 免密登录和防火墙/SELinux 设置是服务正常访问的前提条件。

  4. 适用场景:伪分布式模式适合开发测试,但需注意单点故障风险(如所有进程运行在同一台机器)。

相关推荐
Bug退退退1234 小时前
RabbitMQ 高级特性之死信队列
java·分布式·spring·rabbitmq
prince055 小时前
Kafka 生产者和消费者高级用法
分布式·kafka·linq
诗旸的技术记录与分享6 小时前
Flink-1.19.0源码详解-番外补充3-StreamGraph图
大数据·flink
资讯分享周6 小时前
Alpha系统联结大数据、GPT两大功能,助力律所管理降本增效
大数据·gpt
菜萝卜子6 小时前
【Project】基于kafka的高可用分布式日志监控与告警系统
分布式·kafka
G皮T7 小时前
【Elasticsearch】深度分页及其替代方案
大数据·elasticsearch·搜索引擎·scroll·检索·深度分页·search_after
TDengine (老段)8 小时前
TDengine STMT2 API 使用指南
java·大数据·物联网·时序数据库·iot·tdengine·涛思数据
用户Taobaoapi20149 小时前
母婴用品社媒种草效果量化:淘宝详情API+私域转化追踪案例
大数据·数据挖掘·数据分析
G皮T10 小时前
【Elasticsearch】检索排序 & 分页
大数据·elasticsearch·搜索引擎·排序·分页·检索·深度分页
无级程序员11 小时前
hive2服务启动报错:/tmp/hive on HDFS should be writable(不是chmod 777能解决的)
hive·hadoop·hdfs