Windows环境部署Hadoop-3.3.2和Spark3.3.2

目录

一、Windows环境部署Hadoop-3.3.2

1.CMD管理员解压Hadoop压缩包

2.配置系统环境变量

[3.下载hadoop winutils文件](#3.下载hadoop winutils文件)

4.修改D:\server\hadoop-3.3.2\etc\hadoop目录下的配置文件

(1)core-site.xml

(2)hdfs-site.xml

(3)mapred-site.xml

(4)yarn-site.xml

(5)workers

(6)hadoop-env.cmd

5.初始化hadoop

6.启动Hadoop

7.进入浏览器查看

二、Windows环境部署Spark-3.3.2

1.下载压缩包

2.解压后配置环境变量

3.进入spark-shell

4.进入浏览器


一、Windows环境部署Hadoop-3.3.2

1.CMD管理员解压Hadoop压缩包

不可以直接用winRAR,会报错

输入命令

start winrar x -y 压缩包 压缩路径


例如,将xx.tar.gz解压到当前目录
cd xxx								// 进入到xx.tar.gz目录下
start winrar x -y xx.tar.gz ./		// 即可

##############################################

start winrar x -y hadoop-3.3.2.tar.gz ./

2.配置系统环境变量

PATH中添加

3.下载hadoop winutils文件

下载链接:https://github.com/cdarlint/winutils

选择hadoop3.2.2的bin包即可

下载并解压后,将winutils里面的bin目录中所有的文件复制到hadoop-3.3.2/bin目录下,注意不要直接替换整个bin目录,是把bin下的文件复制过去

4.修改D:\server\hadoop-3.3.2\etc\hadoop目录下的配置文件

(1)core-site.xml
XML 复制代码
<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/D:/server/hadoop-3.3.2/data/tmp</value> 
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>
(2)hdfs-site.xml
XML 复制代码
<configuration>
    <!-- 这个参数设置为1,因为是单机版hadoop -->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/D:/server/hadoop-3.3.2/data/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/D:/server/hadoop-3.3.2/data/datanode</value>
    </property>
</configuration>
(3)mapred-site.xml
XML 复制代码
<configuration>
    <property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
    </property>
    <property>
       <name>mapred.job.tracker</name>
       <value>hdfs://localhost:9001</value>
    </property>
</configuration>
(4)yarn-site.xml
XML 复制代码
<configuration>
	 <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
	<property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hahoop.mapred.ShuffleHandler</value>
    </property>
</configuration>
(5)workers
XML 复制代码
localhost
(6)hadoop-env.cmd
XML 复制代码
# 大约在24行左右

@rem The java implementation to use.  Required.
set JAVA_HOME=C:\PROGRA~1\Java\jdk1.8.0_333
# 注意java目录要改成PROGRA~1的位置


# 大约在在最后一行
set HADOOP_IDENT_STRING=%"USERNAME"%

5.初始化hadoop

管理员运行CMD

XML 复制代码
Microsoft Windows [版本 10.0.19045.4046]
(c) Microsoft Corporation。保留所有权利。

C:\WINDOWS\system32>D:

D:\>cd server\hadoop-3.3.2

D:\server\hadoop-3.3.2>hadoop version
Hadoop 3.3.2
Source code repository git@github.com:apache/hadoop.git -r 0bcb014209e219273cb6fd4152df7df713cbac61
Compiled by chao on 2022-02-21T18:39Z
Compiled with protoc 3.7.1
From source with checksum 4b40fff8bb27201ba07b6fa5651217fb
This command was run using /D:/server/hadoop-3.3.2/share/hadoop/common/hadoop-common-3.3.2.jar



D:\server\hadoop-3.3.2>hdfs namenode -format

6.启动Hadoop

XML 复制代码
D:\server\hadoop-3.3.2>cd sbin

D:\server\hadoop-3.3.2\sbin>start-all.cmd
This script is Deprecated. Instead use start-dfs.cmd and start-yarn.cmd
starting yarn daemons

会出现4个窗口

7.进入浏览器查看

localhost:9870

localhost:8088

二、Windows环境部署Spark-3.3.2

1.下载压缩包

Index of /dist/spark/spark-3.3.2

2.解压后配置环境变量

解压命令和上面的解压hadoop命令一样

配置环境变量:

PATH路径添加**%SPARK_HOME%\bin**

3.进入spark-shell

4.进入浏览器

localhost:4040

相关推荐
光纤传感技术研究27 分钟前
分布式光纤传感|分布式光纤测温|线型光纤感温火灾探测器DTS|DTS|DAS|BOTDA的行业16年的总结【2024年】
分布式·dts·光纤传感器·botda·光纤传感技术
派可数据BI可视化34 分钟前
连锁餐饮行业数据可视化分析方案
大数据·数据库·数据仓库·数据分析·商业智能bi
qiquandongkh35 分钟前
期权懂|期权合约是如何划分月份的?如何换月移仓?
大数据·区块链
dbcat官方37 分钟前
1.微服务灰度发布(方案设计)
java·数据库·分布式·微服务·中间件·架构
朴拙数科39 分钟前
交易生态全解析:聚合交易平台 交易策略平台 技术策略提供方 交易机器人平台 资管、支付平台 社交交易社区 跟单平台在饼圈量化的定义和关系是怎样的?
大数据·机器人·区块链
李匠20241 小时前
大数据学习之Redis 缓存数据库二,Scala分布式语言一
大数据·数据库·缓存
m0_748237051 小时前
Monorepo pnpm 模式管理多个 web 项目
大数据·前端·elasticsearch
Robot2511 小时前
「地平线」副总裁余轶南与「理想汽车」智驾产品总监赵哲伦联手创业,入局具身智能赛道!
大数据·人工智能·机器人·汽车
浙江洲际检测认证2 小时前
一分钟快速了解Ecovadis认证等级划分
大数据
java1234_小锋2 小时前
ElasticSearch如何做性能优化?
大数据·elasticsearch·性能优化