Hadoop 实战笔记(一) -- Windows 安装 Hadoop 3.x

环境准备

  1. 安装 JAVA 1.8
    Java环境搭建之JDK下载及安装
  2. 下载 Hadoop 3.3.5 安装包
    Hadoop 下载:https://archive.apache.org/dist/hadoop/common/

一、JAVA JDK 环境检查

二、Hadoop(HDFS)环境搭建

1. 解压安装文件 hadoop-3.3.5.tar

2. 配置环境变量

bash 复制代码
HADOOP_HOME:D:\Development\Hadoop

HADOOP_USER_NAME:root

Path:%HADOOP_HOME%\bin;%HADOOP_HOME%\sbin;

3.配置Hadoop

检查 hadoop-3.3.5\etc\hadoop\hadoop-env.cmd 文件JDK的配置,通常无需改动

bash 复制代码
set JAVA_HOME=%JAVA_HOME%

如果报错的话配置为 JAVA 安装路径

bash 复制代码
set JAVA_HOME=C:\PROGRA~1\Java\jdk1.8.0_92

windowsd的cmd不允许设置变量路径带有空格,所以Java的安装目录需要不带空格

修改 hadoop/etc/hadoop/core-site.xml

bash 复制代码
<configuration>
	<!--指定 namenode 的 hdfs 协议文件系统的通信地址-->
	<property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
    <!--指定 hadoop 存储临时文件的目录-->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>D:\Development\Hadoop\data\tmp</value>
    </property>
</configuration>

修改 hadoop/etc/hadoop/hdfs-site.xml

bash 复制代码
<configuration>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>D:\Development\Hadoop\data\namenode</value>
    </property>
	<property>
        <name>dfs.datanode.data.dir</name>
        <value>D:\Development\Hadoop\data\datanode</value>
    </property>
     <!--由于我们这里搭建是单机版本,所以指定 dfs 的副本系数为 1-->	
	<property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
	   <name>dfs.permissions.enabled</name>
	   <value>false</value>
	</property>
</configuration>

4. 格式化NameNode :

第一次启动 Hadoop 时需要进行初始化,进入 ${HADOOP_HOME}/bin/ 目录下,执行以下命令:

进入 hadoop-3.3.5\bin 目录,执行 以下命令

bash 复制代码
hdfs namenode -format

5. 启动 HDFS

  • 进入 hadoop/sbin 目录,执行以下命令:
bash 复制代码
hadoop/sbin/start-dfs.cmd

hadoop/sbin/start-yarn.cmd
  • 验证是否启动成功
    方式一:执行 jps 查看 NameNode 和 DataNode 服务是否已经启动:
bash 复制代码
[../sbin]# jps
5988 Jps
1964 DataNode
4572 NameNode
  • 查看集群状态
    http://localhost:9870/

三、Hadoop(YARN)环境搭建

1. 修改配置

进入 ${HADOOP_HOME}/etc/hadoop/ 目录下,修改以下配置:

  • 修改 hadoop/etc/hadoop/mapred-site.xml
bash 复制代码
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
  • 修改 hadoop/etc/hadoop/yarn-site.xml
bash 复制代码
<configuration>
 <!--配置 NodeManager 上运行的附属服务。需要配置成 mapreduce_shuffle 后才可以在 Yarn 上运行 MapReduce 程序。-->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>localhost</value>
    </property>
</configuration>

5. 启动服务

  • 进入 hadoop/sbin 目录,执行以下命令:
bash 复制代码
hadoop/sbin/start-yarn.cmd

6. 验证是否启动成功

  • 方式一:执行 jps 查看 ResourceManagerNodeManager 服务是否已经启动:
bash 复制代码
4112 Jps
2100 ResourceManager
1964 DataNode
4572 NameNode
4668 NodeManager
  • 方式二:查看 Web UI 界面,端口号为 8088,访问页面:http://localhost:8088/

参考:

相关推荐
KKKlucifer16 分钟前
数据资产地图构建:文档安全可视化与主动防御
大数据·安全
多来哈米1 小时前
openclaw在Windows部署
windows·openclaw
视觉AI1 小时前
【踩坑实录】Windows ICS 共享网络下,国产化盒子 SSH 连接异常的完整分析
网络·windows·ssh
2501_943695331 小时前
高职工业大数据应用专业,怎么找智能制造企业的数据岗?
大数据·信息可视化·制造
得赢科技1 小时前
智能菜谱研发公司推荐 适配中小型餐饮
大数据·运维·人工智能
Hello.Reader2 小时前
Flink 内存与资源调优从 Process Memory 到 Fine-Grained Resource Management
大数据·flink
有代理ip3 小时前
成功请求的密码:HTTP 2 开头响应码深度解析
java·大数据·python·算法·php
jl48638213 小时前
打造医疗设备的“可靠视窗”:医用控温仪专用屏从抗菌设计到EMC兼容的全链路解析
大数据·运维·人工智能·物联网·人机交互
刺客xs4 小时前
git 入门常用命令
大数据·git·elasticsearch
risc1234564 小时前
【Elasticsearch】LeafDocLookup 详述
大数据·elasticsearch·mybatis