Hadoop 单机模式(Standalone Mode)部署与 WordCount 测试

通过本次实验,成功搭建了 Hadoop 单机环境并运行了基础 MapReduce 程序,为后续分布式计算学习奠定了基础。

  1. 掌握 Hadoop 单机模式的安装与配置方法。

  2. 熟悉 Hadoop 环境变量的配置及 Java 依赖管理。

  3. 使用 Hadoop 自带的 WordCount 示例程序进行简单的 MapReduce 计算,验证安装是否成功。

环境准备

操作系统:推荐 Linux(如 Ubuntu/CentOS)或 macOS(Windows 需通过 WSL 或虚拟机)

Java 环境

安装 JDK 1.8+(Hadoop 3.x 需 Java 8 或 11)

如果安装过,需要卸载以前的包,并且删掉环境变量,然后干掉目录

如果未安装过可以直接进行下一步操作

复制代码
# 查询已安装的 JDK 包
rpm -qa | grep 'java\|jdk\|gcj\|jre'

# 卸载指定包(替换为实际查询结果)
yum -y remove java*

# 修改环境变量,删掉环境那两行
vi /etc/profile

#使其生效
source /etc/profile

# 清空opt目录下面的东西
cd /opt/
rm -rf *

安装jdk

1.上传jdk压缩包jdk-8u181-linux-x64.tar.gz

没有的可以前往飞书直接下载我的

Docs

2.解压缩后目录如下,删除压缩包节省空间,并改名方便操作

复制代码
tar -zxvf jdk-8u181-linux-x64.tar.gz -C /opt/

rm -rf jdk-8u181-linux-x64.tar.gz

mv "jdk1.8.0_181" "jdk1.8"

3.配置环境变量

复制代码
sudo vi /etc/profile

export JAVA_HOME=/opt/jdk1.8  #填写自己的jdk路径
export PATH=$JAVA_HOME/bin:$PATH

4.环境生效

复制代码
source /etc/profile

5.查看版本确认安装

复制代码
java -version

安装hadoop

1.没有wegt命令的自行下载

复制代码
yum -y install wget

2.回到opt目录(和jdk一个目录),下载hadoop

复制代码
cd /opt
wget https://mirrors.aliyun.com/apache/hadoop/common/hadoop-3.3.6/hadoop-3.3.6.tar.gz

3.检查下载再解压,解压后可以删掉压缩包节省空间,进行改名

复制代码
# 检查是否wget成功
ls
# 解压缩
tar -zxvf hadoop-3.3.6.tar.gz -C /opt/

# 删除压缩包节省空间
rm -rf hadoop-3.3.6.tar.gz

#修改名字
mv /opt/hadoop-3.3.6 /opt/hadoop

4.配置环境变量,使其生效

复制代码
# 配置环境变量(编辑 ~/.bashrc 或 ~/.zshrc)
vim ~/.bashrc

export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

# 使配置生效
source ~/.bashrc

5.检查hadoop版本,验证是否安装成功

复制代码
hadoop version

进行测试

计算test.txt(计算就是统计文本单词重复出现多少次)

1.创建测试脚本

复制代码
# 创建输入目录(注意是创建在在root目录下)
mkdir -p ~/hadoop-input
# 写入测试文本
echo "Hello World Hello Hadoop" > ~/hadoop-input/test.txt
# 检查是否写入
cd ~
ls
cd hadoop-input
ls
cat test.txt

2.查看hadoop提供的案例(只是告诉你hadoop案例放在哪里而已,可以不操作)

复制代码
cd /opt/hadoop
#查看目录,里面有个share,存放这hadoop的默认案例
cd share/hadoop/mapreduce
ls
  1. 执行 WordCount,出现successfully字样,此时统计完成

    hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar
    wordcount ~/hadoop-input ~/hadoop-output

4.查看统计结果

复制代码
cd ~
cd hadoop-output
ls
cat part-r-00000

单机部署完成

实验总结

  • 成功点

    • 完成 JDK 和 Hadoop 的安装与配置。

    • 验证了 Hadoop 单机模式的基本功能(MapReduce 计算)。

  • 注意事项

    • 需确保环境变量配置正确(如 JAVA_HOMEHADOOP_HOME)。

    • 输入/输出目录需提前创建,避免权限问题。

  • 后续扩展

    • 尝试伪分布式模式(Pseudo-Distributed Mode)部署。

    • 使用其他 Hadoop 示例(如 greppi)进行测试。

相关推荐
NineData3 小时前
数据库迁移总踩坑?用 NineData 迁移评估,提前识别所有兼容性风险
数据库·程序员·云计算
赵渝强老师5 小时前
【赵渝强老师】PostgreSQL中表的碎片
数据库·postgresql
字节跳动数据平台9 小时前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
全栈老石9 小时前
拆解低代码引擎核心:元数据驱动的"万能表"架构
数据库·低代码
得物技术10 小时前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康12 小时前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
倔强的石头_1 天前
kingbase备份与恢复实战(二)—— sys_dump库级逻辑备份与恢复(Windows详细步骤)
数据库
武子康1 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天1 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
jiayou642 天前
KingbaseES 实战:深度解析数据库对象访问权限管理
数据库