WSL2搭建Hadoop伪分布式环境

目录

[在 WSL2 Ubuntu 安装必备环境](#在 WSL2 Ubuntu 安装必备环境)

[下载并配置 Hadoop](#下载并配置 Hadoop)

[启动 / 停止 Hadoop](#启动 / 停止 Hadoop)

[Spring Boot 空项目](#Spring Boot 空项目)

一键脚本(WSL)


本文目标:在 WSL2 的 Ubuntu 里跑起单机版 Hadoop(伪分布式),并建好 Spring Boot 空工程

在 WSL2 Ubuntu 安装必备环境

安装 JDK 17

bash 复制代码
sudo apt install openjdk-17-jdk -y

验证:

bash 复制代码
java -version

安装 Maven 和 Git

bash 复制代码
sudo apt install maven git -y

验证:

bash 复制代码
mvn -v
git --version

安装 SSH

Hadoop 的伪分布式需要本机 SSH:

bash 复制代码
sudo apt install openssh-server -y

生成免密钥:

bash 复制代码
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys

测试:

bash 复制代码
ssh localhost

应该能直接登录,不再要密码。

下载并配置 Hadoop

创建用户并加权限

bash 复制代码
# 创建 hadoop 用户
sudo adduser hadoop

# 给 hadoop 用户 sudo 权限
sudo usermod -aG sudo hadoop

切换用户

bash 复制代码
su - hadoop

进入工作目录

bash 复制代码
mkdir -p ~/bigdata-labs && cd ~/bigdata-labs

下载 Hadoop(3.3.x 为稳定版)

在浏览器打开https://archive.apache.org/dist/hadoop/common/hadoop-3.3.6/hadoop-3.3.6.tar.gz

下载好后放到 /home/hadoop/bigdata-labs 下

解压并更名

bash 复制代码
tar -xvzf hadoop-3.3.6.tar.gz
mv hadoop-3.3.6 hadoop

配置环境变量(hadoop 用户)

编辑:

bash 复制代码
nano ~/.bashrc

加入:

bash 复制代码
export HADOOP_HOME=/home/hadoop/bigdata-labs/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

添加之后按ctrl + o 保存,然后按enter确认修改,最后按ctrl + x 退出

刷新:

bash 复制代码
source ~/.bashrc

继续配置环境变量:

bash 复制代码
echo 'export HADOOP_HOME=~/bigdata-labs/hadoop' >> ~/.bashrc
echo 'export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin' >> ~/.bashrc
source ~/.bashrc

修改 hadoop-env.sh,指向 JDK17:

bash 复制代码
nano ~/bigdata-labs/hadoop/etc/hadoop/hadoop-env.sh

在最末尾添加:

bash 复制代码
export JAVA_HOME=/usr/lib/jvm/java-17-openjdk-amd64

配置 NameNode 地址

在文件夹中找这个路径,\home\hadoop\bigdata-labs\hadoop\etc\hadoop

找到之后有一个 core-site.xml 文件,加入:

bash 复制代码
<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
  </property>
</configuration>

这里的 localhost:9000 就是 NameNode 的 RPC 服务地址

然后找 hdfs-site.xml 文件

加入:

bash 复制代码
<configuration>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>

  <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/home/hadoop/bigdata-labs/hadoop/dfs/name</value>
  </property>

  <property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/home/hadoop/bigdata-labs/hadoop/dfs/data</value>
  </property>
</configuration>

dfs.namenode.name.dir 存储 NameNode 的元数据(namespace、FSImage、EditLog 等)

dfs.datanode.data.dir 存储 DataNode 的实际数据块

继续找 yarn-site.xml 文件

加入:

bash 复制代码
<configuration>
  <!-- ResourceManager 的主机名 -->
  <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>localhost</value>
  </property>

  <!-- NodeManager 管理容器时用的执行器 -->
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
</configuration>

找到 mapred-site.xml 文件

加入:

bash 复制代码
<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
</configuration>

然后由于JDK 17 的模块限制在卡 Guice/cglib(YARN 的 Web/注入框架),默认不允许用反射访问 java.lang 里的受限方法。所以需要给 YARN(以及 Hadoop/MapReduce 守护进程)加上 --add-opens 启动参数

yarn-env.sh

bash 复制代码
nano $HADOOP_HOME/etc/hadoop/yarn-env.sh

在文件末尾追加一行

bash 复制代码
export YARN_OPTS="$YARN_OPTS \
  --add-opens=java.base/java.lang=ALL-UNNAMED \
  --add-opens=java.base/java.lang.reflect=ALL-UNNAMED \
  --add-opens=java.base/java.io=ALL-UNNAMED"

hadoop-env.sh

bash 复制代码
nano $HADOOP_HOME/etc/hadoop/hadoop-env.sh

在文件末尾追加一行

bash 复制代码
export HADOOP_OPTS="$HADOOP_OPTS \
  --add-opens=java.base/java.lang=ALL-UNNAMED \
  --add-opens=java.base/java.lang.reflect=ALL-UNNAMED \
  --add-opens=java.base/java.io=ALL-UNNAMED"

mapred-env.sh

bash 复制代码
nano $HADOOP_HOME/etc/hadoop/mapred-env.sh

在文件末尾追加一行

bash 复制代码
export MAPRED_OPTS="$MAPRED_OPTS \
  --add-opens=java.base/java.lang=ALL-UNNAMED \
  --add-opens=java.base/java.lang.reflect=ALL-UNNAMED \
  --add-opens=java.base/java.io=ALL-UNNAMED"

启动 / 停止 Hadoop

格式化 HDFS(首次需要)

bash 复制代码
hdfs namenode -format

启动

bash 复制代码
start-dfs.sh
start-yarn.sh

验证

bash 复制代码
# 看进程
jps

可以看到以下五个内容

检查 Web UI

NameNode: http://localhost:9870

ResourceManager: http://localhost:8088 (应能看到 1 个活跃的 Node)

停止

bash 复制代码
stop-yarn.sh
stop-dfs.sh

Spring Boot 空项目

在 IDEA 里新建 Maven 项目 spring-hadoop-playground,依赖:

XML 复制代码
<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-client</artifactId>
    <version>3.3.6</version>
</dependency>

测试启动类:

java 复制代码
@SpringBootApplication
public class HadoopPlaygroundApp {
    public static void main(String[] args) {
        SpringApplication.run(HadoopPlaygroundApp.class, args);
    }
}

运行后控制台输出 Started HadoopPlaygroundApp 即成功

一键脚本(WSL)

平常如果不写脚本,需要手动敲两条命令:

$HADOOP_HOME/sbin/start-dfs.sh

$HADOOP_HOME/sbin/start-yarn.sh

这样才能同时启动 HDFS(NameNode、DataNode、SecondaryNameNode) 和 YARN(ResourceManager、NodeManager)

脚本的作用:自动化

把这两条命令放进一个 start-hadoop.sh 脚本文件里,下次只要敲:

bash 复制代码
./start-hadoop.sh

就能一键启动全部服务。

具体操作:

新建 start-hadoop.sh

bash 复制代码
nano start-hadoop.sh

加入:

bash 复制代码
#!/bin/bash
$HADOOP_HOME/sbin/start-dfs.sh
$HADOOP_HOME/sbin/start-yarn.sh

然后保存退出

赋权

bash 复制代码
chmod +x start-hadoop.sh

给脚本执行权限

运行

bash 复制代码
./start-hadoop.sh

一键执行,省得每次都手动输入两条命令

相关推荐
Elastic 中国社区官方博客5 分钟前
使用 jina-embeddings-v3 和 Elasticsearch 进行多语言搜索
大数据·数据库·人工智能·elasticsearch·搜索引擎·全文检索·jina
AIFQuant14 分钟前
2026 越南证券交易所(VN30, HOSE)API 接口指南
大数据·后端·python·金融·restful
飞Link1 小时前
【Sqoop】Sqoop 使用教程:从原理到实战的完整指南
数据库·hadoop·sqoop
OpenCSG1 小时前
AgenticOps x CSGHub:企业智能体走向规模化生产的工程底座
大数据·人工智能
易营宝1 小时前
高效的跨境电商广告优化系统:易营宝广告投放实操指南
大数据·开发语言·人工智能·php
Solar20251 小时前
机械制造业TOB企业获客软件选型指南:从挑战到解决方案的深度解析
java·大数据·服务器·架构·云计算
千殇华来3 小时前
电子元器件库存管理分类方法
大数据·数据库管理员·储存管理
反向跟单策略3 小时前
期货反向跟单-贵金属牛市中的反向跟单密码
大数据·人工智能·学习·数据分析·区块链
万邦科技Lafite3 小时前
阿里巴巴商品详情API返回值:电商精准营销的关键
大数据·数据库·人工智能·电商开放平台
说私域3 小时前
基于AI智能名片链动2+1模式服务预约小程序的旅拍消费需求激发路径研究
大数据·人工智能·小程序