Hadoop 实战笔记(一) -- Windows 安装 Hadoop 3.x

环境准备

  1. 安装 JAVA 1.8
    Java环境搭建之JDK下载及安装
  2. 下载 Hadoop 3.3.5 安装包
    Hadoop 下载:https://archive.apache.org/dist/hadoop/common/

一、JAVA JDK 环境检查

二、Hadoop(HDFS)环境搭建

1. 解压安装文件 hadoop-3.3.5.tar

2. 配置环境变量

bash 复制代码
HADOOP_HOME:D:\Development\Hadoop

HADOOP_USER_NAME:root

Path:%HADOOP_HOME%\bin;%HADOOP_HOME%\sbin;

3.配置Hadoop

检查 hadoop-3.3.5\etc\hadoop\hadoop-env.cmd 文件JDK的配置,通常无需改动

bash 复制代码
set JAVA_HOME=%JAVA_HOME%

如果报错的话配置为 JAVA 安装路径

bash 复制代码
set JAVA_HOME=C:\PROGRA~1\Java\jdk1.8.0_92

windowsd的cmd不允许设置变量路径带有空格,所以Java的安装目录需要不带空格

修改 hadoop/etc/hadoop/core-site.xml

bash 复制代码
<configuration>
	<!--指定 namenode 的 hdfs 协议文件系统的通信地址-->
	<property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
    <!--指定 hadoop 存储临时文件的目录-->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>D:\Development\Hadoop\data\tmp</value>
    </property>
</configuration>

修改 hadoop/etc/hadoop/hdfs-site.xml

bash 复制代码
<configuration>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>D:\Development\Hadoop\data\namenode</value>
    </property>
	<property>
        <name>dfs.datanode.data.dir</name>
        <value>D:\Development\Hadoop\data\datanode</value>
    </property>
     <!--由于我们这里搭建是单机版本,所以指定 dfs 的副本系数为 1-->	
	<property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
	   <name>dfs.permissions.enabled</name>
	   <value>false</value>
	</property>
</configuration>

4. 格式化NameNode :

第一次启动 Hadoop 时需要进行初始化,进入 ${HADOOP_HOME}/bin/ 目录下,执行以下命令:

进入 hadoop-3.3.5\bin 目录,执行 以下命令

bash 复制代码
hdfs namenode -format

5. 启动 HDFS

  • 进入 hadoop/sbin 目录,执行以下命令:
bash 复制代码
hadoop/sbin/start-dfs.cmd

hadoop/sbin/start-yarn.cmd
  • 验证是否启动成功
    方式一:执行 jps 查看 NameNode 和 DataNode 服务是否已经启动:
bash 复制代码
[../sbin]# jps
5988 Jps
1964 DataNode
4572 NameNode
  • 查看集群状态
    http://localhost:9870/

三、Hadoop(YARN)环境搭建

1. 修改配置

进入 ${HADOOP_HOME}/etc/hadoop/ 目录下,修改以下配置:

  • 修改 hadoop/etc/hadoop/mapred-site.xml
bash 复制代码
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
  • 修改 hadoop/etc/hadoop/yarn-site.xml
bash 复制代码
<configuration>
 <!--配置 NodeManager 上运行的附属服务。需要配置成 mapreduce_shuffle 后才可以在 Yarn 上运行 MapReduce 程序。-->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>localhost</value>
    </property>
</configuration>

5. 启动服务

  • 进入 hadoop/sbin 目录,执行以下命令:
bash 复制代码
hadoop/sbin/start-yarn.cmd

6. 验证是否启动成功

  • 方式一:执行 jps 查看 ResourceManagerNodeManager 服务是否已经启动:
bash 复制代码
4112 Jps
2100 ResourceManager
1964 DataNode
4572 NameNode
4668 NodeManager
  • 方式二:查看 Web UI 界面,端口号为 8088,访问页面:http://localhost:8088/

参考:

相关推荐
Coder_Boy_10 分钟前
基于SpringAI的在线考试系统-企业级软件研发工程应用规范实现细节
大数据·开发语言·人工智能·spring boot
Hello.Reader38 分钟前
Flink State Processor API 读写/修复 Savepoint,把“状态”当成可查询的数据
大数据·flink
木风小助理1 小时前
Elasticsearch生产环境最佳实践指南
大数据·elasticsearch·搜索引擎
hg01181 小时前
筑梦非洲:中国电建以实干绘就中非合作新图景
大数据
WZGL12301 小时前
智慧养老方兴未艾,“AI+养老”让银龄老人晚年更美好
大数据·人工智能·物联网·生活·智能家居
檐下翻书1731 小时前
PC端免费跨职能流程图模板大全 中文
大数据·人工智能·架构·流程图·论文笔记
子琦啊1 小时前
WIN11电脑桌面“固定到开始”菜单失效解决办法
windows·电脑
一只专注api接口开发的技术猿2 小时前
如何处理淘宝 API 的请求限流与数据缓存策略
java·大数据·开发语言·数据库·spring
程途拾光1582 小时前
中文界面跨职能泳道图制作教程 PC
大数据·论文阅读·人工智能·信息可视化·流程图
CORNERSTONE3652 小时前
智能制造为什么要实现EMS和MES的集成
大数据·人工智能·制造