安装并运行hadoop程序

1.在虚拟机上安装javaJDK

(1)把javaJDK文件上传到服务器

在opt文件夹下新建一个software文件夹,将jdk拖入software

(2)解压文件

在opt文件夹下新建一个module文件夹,确认上传成功之后,在software(进入命令:cd /opt/software)目录下,运行如下命令:

tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/

(3)配置环境变量

在如下路径新建文件写入代码并保存:

复制代码
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin

source一下/etc/profile文件,让新的环境变量PATH生效:

source /etc/profile

在任意目录下输入java -version,看是否能出现jdk版本

2.在虚拟机上安装hadoop

(1)把hadoop文件上传到服务器

将hadoop拖入software

输入如下命令进入software:

cd /opt/software

(2)解压文件

在输入如下命令进行解压:
tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/

(3)配置环境变量

在my_env.sh输入如下代码并保存:

复制代码
#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

输入如下代码查看hadoop是否安装成功

3.运行官方WordCount程序

在如下目录新建文件夹wcinput

在wcinput新建两个文件

写入如下内容:

输入命令进入:

cd /opt/module/hadoop-3.1.3/wcinput

输入命令运行:

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount wcinput wcoutput

查看计数:

相关推荐
字节跳动数据平台21 小时前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术1 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康1 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康2 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天2 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康4 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
初次攀爬者5 天前
ZooKeeper 实现分布式锁的两种方式
分布式·后端·zookeeper
武子康5 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP6 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库6 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全