本地 Hadoop 开发环境搭建详解

本地 Hadoop 开发环境搭建详解

Hadoop 是处理大规模数据的核心工具之一,在大数据分析、机器学习和数据仓库等场景中应用广泛。为了方便开发和调试,搭建一个本地 Hadoop 环境是一个很好的选择。本文将详细介绍如何在本地搭建一个单节点的 Hadoop 环境,适用于学习和开发。


前提条件

  1. **操作系统**:建议使用 Linux 系统(例如 Ubuntu 或 CentOS),Windows 用户可以使用 WSL 或虚拟机来搭建。

  2. **Java 环境**:Hadoop 依赖 Java 运行环境,推荐使用 JDK 8 版本。

  3. **SSH**:Hadoop 在集群中使用 SSH 进行节点间通信,因此需要配置 SSH 免密登录。

  4. **Hadoop 安装包**:从 Hadoop 官方网站下载二进制文件。


步骤详解

1. 安装 Java

Hadoop 依赖于 Java 运行环境,请确保安装了合适的 JDK 版本。

```bash

安装 OpenJDK 8(Ubuntu)

sudo apt update

sudo apt install -y openjdk-8-jdk

检查安装

java -version

```

编辑 `~/.bashrc` 文件,添加 `JAVA_HOME` 路径:

```bash

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

export PATH=PATH:JAVA_HOME/bin

```

应用环境变量配置:

```bash

source ~/.bashrc

```

2. 下载并安装 Hadoop

从 [Hadoop 官网](https://hadoop.apache.org/releases.html) 下载 Hadoop 二进制文件并解压到指定目录。

```bash

假设下载的文件为 hadoop-3.3.1.tar.gz

tar -xvzf hadoop-3.3.1.tar.gz

sudo mv hadoop-3.3.1 /usr/local/hadoop

```

3. 设置 Hadoop 环境变量

编辑 `~/.bashrc`,添加以下 Hadoop 环境变量:

```bash

export HADOOP_HOME=/usr/local/hadoop

export PATH=PATH:HADOOP_HOME/bin:$HADOOP_HOME/sbin

```

更新环境变量:

```bash

source ~/.bashrc

```

4. 配置 Hadoop

配置文件位于 `$HADOOP_HOME/etc/hadoop/` 目录中,主要需要编辑以下四个文件:

  1. **core-site.xml**

配置 HDFS 的默认文件系统地址:

```xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://localhost:9000</value>

</property>

</configuration>

```

  1. **hdfs-site.xml**

设置副本数量为 1,以便在单节点模式下运行:

```xml

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

</configuration>

```

  1. **mapred-site.xml**

将 `mapred-site.xml.template` 文件复制并重命名为 `mapred-site.xml`,然后编辑该文件以启用 YARN:

```xml

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

```

  1. **yarn-site.xml**

配置 YARN 的 Shuffle 服务:

```xml

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>

```

5. 配置 SSH 免密登录

为了在 Hadoop 中顺利执行命令,您需要配置 SSH 免密登录。执行以下命令生成 SSH 密钥并配置:

```bash

生成 SSH 密钥

ssh-keygen -t rsa -P ""

将公钥添加到授权密钥列表

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

测试 SSH 连接

ssh localhost

```

6. 格式化 Namenode

在首次启动 HDFS 前,需要格式化 Namenode。这只需要进行一次,执行命令如下:

```bash

hdfs namenode -format

```

7. 启动 Hadoop 服务

  1. 启动 HDFS 服务:

```bash

start-dfs.sh

```

  1. 启动 YARN 服务:

```bash

start-yarn.sh

```

可以通过以下命令查看正在运行的 Hadoop 进程:

```bash

jps

```

应该看到以下进程:`NameNode`、`DataNode`、`ResourceManager` 和 `NodeManager`。

8. 验证 Hadoop 配置

Hadoop 启动后,可以通过以下 URL 查看 Hadoop 状态:

9. 测试 HDFS

测试 HDFS 的基本功能,创建文件夹并上传文件:

```bash

创建 HDFS 目录

hdfs dfs -mkdir /user

hdfs dfs -mkdir /user/your_username

上传文件

hdfs dfs -put $HADOOP_HOME/etc/hadoop/*.xml /user/your_username

```

查看文件是否成功上传:

```bash

hdfs dfs -ls /user/your_username

```


小结

通过以上步骤,您已在本地成功搭建一个 Hadoop 单节点开发环境。此环境可以用于学习 Hadoop 的基础概念、开发 MapReduce 程序和进行小规模数据测试。

相关推荐
简离3 天前
前端调试实战:基于 chrome://webrtc-internals/ 高效排查WebRTC问题
前端·chrome·webrtc
Ai老司机4 天前
Chrome浏览器驱动(ChromeDriver)官方下载 - 全平台高速镜像站 | chromedrive.cn
前端·chrome
电商API_180079052474 天前
如何将小红书评论数据封装到API实现自动化分析?测试API实战指南
运维·chrome·自动化
~远在太平洋~4 天前
debian系统已安装python3.12却无法执行python命令
chrome·python·debian
阿珊和她的猫4 天前
浏览器跨页签数据共享方案
前端·javascript·vue.js·chrome
阿珊和她的猫4 天前
Chrome性能测试关键参数解析
前端·vue.js·chrome
zhangfeng11334 天前
快速验证哪个文件坏了 模型文件损坏或不完整大语言模型开发 .llm
人工智能·chrome·语言模型
不光头强5 天前
Linux 系统中最常用的命令及具体使用方法
linux·运维·chrome
田里的水稻5 天前
OE_ubuntu24.04如何安装中文简体拼音输入法
运维·前端·chrome
前端嘣擦擦5 天前
避坑笔记:Chrome 144+ SVG 事件失效问题
前端·javascript·chrome·笔记·svg2