Hadoop大数据应用:Linux 部署 MapReduce 与 Yarn

目录

一、实验

1.环境

[2.Linux 部署 MapReduce](#2.Linux 部署 MapReduce)

[3.Linux 部署 Yarn](#3.Linux 部署 Yarn)

[4.Linux 调用大数据集群分析数据](#4.Linux 调用大数据集群分析数据)

二、问题

[1.hadoop 的启动和停止命令](#1.hadoop 的启动和停止命令)

[2.HDFS 使用命令](#2.HDFS 使用命令)


一、实验

1.环境

(1)主机

表1 主机

|--------|--------------------------------------------------------|--------|-------|----------------|----|
| 主机 | 架构 | 软件 | 版本 | IP | 备注 |
| hadoop | NameNode (已部署) SecondaryNameNode (已部署) ResourceManager | hadoop | 2.7.7 | 192.168.204.50 | |
| node01 | DataNode(已部署) NodeManager | hadoop | 2.7.7 | 192.168.204.51 | |
| node02 | DataNode(已部署) NodeManager | hadoop | 2.7.7 | 192.168.204.52 | |
| node03 | DataNode(已部署) NodeManager | hadoop | 2.7.7 | 192.168.204.53 | |

(2) 查看jps进程

NameNode节点查看

bash 复制代码
[root@hadoop hadoop]# jps

DataNode节点查看(node01)

DataNode节点查看(node02)

DataNode节点查看(node03)

(3) web页面访问

bash 复制代码
http://192.168.204.50:50070/
bash 复制代码
http://192.168.204.50:50090/
bash 复制代码
http://192.168.204.51:50075/

访问系统

2.Linux 部署 MapReduce

(1)备份

bash 复制代码
[root@hadoop hadoop]# cp mapred-site.xml.template mapred-site.xml

(2)查看mapreduce配置文件

bash 复制代码
https://hadoop.apache.org/docs/r2.7.7/
bash 复制代码
https://hadoop.apache.org/docs/r2.7.7/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml

(3)修改配置文件

bash 复制代码
[root@hadoop hadoop]# vim mapred-site.xml

修改前:

修改后:

bash 复制代码
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
bash 复制代码
[root@hadoop hadoop]# vim yarn-site.xml

3.Linux 部署 Yarn

(1) 查看yarn配置文件

bash 复制代码
https://hadoop.apache.org/docs/r2.7.7/hadoop-yarn/hadoop-yarn-common/yarn-default.xml

服务:

主机:

(2) 修改配置文件

bash 复制代码
[root@hadoop hadoop]# vim yarn-site.xml

修改前:

修改后:

bash 复制代码
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
<!-- Site specific YARN configuration properties -->
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop</value>
    </property>
</configuration>

(3) 同步配置

bash 复制代码
[root@hadoop ~]# rsync -aXSH --delete /usr/local/hadoop/etc node01:/usr/local/hadoop/
[root@hadoop ~]# rsync -aXSH --delete /usr/local/hadoop/etc node02:/usr/local/hadoop/
[root@hadoop ~]# rsync -aXSH --delete /usr/local/hadoop/etc node03:/usr/local/hadoop/

(4)启动yarn服务

bash 复制代码
[root@hadoop ~]# cd /usr/local/hadoop/
[root@hadoop hadoop]# ./sbin/start-yarn.sh

(5)查看jps

新增ResourceManager

bash 复制代码
[root@hadoop hadoop]# jps

node01节点

node02节点

node03节点

(6)查看节点

bash 复制代码
[root@hadoop hadoop]# ./bin/yarn node -list
24/03/14 13:40:21 INFO client.RMProxy: Connecting to ResourceManager at hadoop/192.168.204.50:8032
Total Nodes:3
         Node-Id             Node-State Node-Http-Address       Number-of-Running-Containers
    node01:40551                RUNNING       node01:8042                                  0
    node02:46073                RUNNING       node02:8042                                  0
    node03:40601                RUNNING       node03:8042                                  0

(7)web页面访问

ResourceManager

bash 复制代码
http://192.168.204.50:8088/

NodeManager

bash 复制代码
http://192.168.204.51:8042/

4.Linux 调用大数据集群分析数据

(1)查看

bash 复制代码
[root@hadoop hadoop]# ./bin/hadoop fs -ls /
bash 复制代码
[root@hadoop hadoop]# ./bin/hadoop fs -ls /devops/

(2)分析

bash 复制代码
[root@hadoop hadoop]# ./bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount /devops /output

(3)查看

生成output

bash 复制代码
[root@hadoop hadoop]# ./bin/hadoop fs -ls /
bash 复制代码
[root@hadoop hadoop]# ./bin/hadoop fs -ls /output/

查看内容

bash 复制代码
[root@hadoop hadoop]# ./bin/hadoop fs -cat /output/*

the的次数最多

二、问题

1.hadoop 的启动和停止命令

(1)命令

bash 复制代码
sbin/start-all.sh 启动所有的Hadoop守护进程。包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager
sbin/stop-all.sh 停止所有的Hadoop守护进程。包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager
sbin/start-dfs.sh 启动Hadoop HDFS守护进程NameNode、SecondaryNameNode、DataNode
sbin/stop-dfs.sh 停止Hadoop HDFS守护进程NameNode、SecondaryNameNode和DataNode
sbin/hadoop-daemons.sh start namenode 单独启动NameNode守护进程
sbin/hadoop-daemons.sh stop namenode 单独停止NameNode守护进程
sbin/hadoop-daemons.sh start datanode 单独启动DataNode守护进程
sbin/hadoop-daemons.sh stop datanode 单独停止DataNode守护进程
sbin/hadoop-daemons.sh start secondarynamenode 单独启动SecondaryNameNode守护进程
sbin/hadoop-daemons.sh stop secondarynamenode 单独停止SecondaryNameNode守护进程
sbin/start-yarn.sh 启动ResourceManager、NodeManager
sbin/stop-yarn.sh 停止ResourceManager、NodeManager
sbin/yarn-daemon.sh start resourcemanager 单独启动ResourceManager
sbin/yarn-daemons.sh start nodemanager 单独启动NodeManager
sbin/yarn-daemon.sh stop resourcemanager 单独停止ResourceManager
sbin/yarn-daemons.sh stopnodemanager 单独停止NodeManager
sbin/mr-jobhistory-daemon.sh start historyserver 手动启动jobhistory
sbin/mr-jobhistory-daemon.sh stop historyserver 手动停止jobhistory

2.HDFS 使用命令

(1)命令

bash 复制代码
ls 查看文件或目录

cat 查看文件内容

put 上传

get 下载
相关推荐
GZ_TOGOGO19 分钟前
【2024最新】华为HCIE认证考试流程
大数据·人工智能·网络协议·网络安全·华为
韩楚风1 小时前
【linux 多进程并发】linux进程状态与生命周期各阶段转换,进程状态查看分析,助力高性能优化
linux·服务器·性能优化·架构·gnu
陈苏同学1 小时前
4. 将pycharm本地项目同步到(Linux)服务器上——深度学习·科研实践·从0到1
linux·服务器·ide·人工智能·python·深度学习·pycharm
Ambition_LAO1 小时前
解决:进入 WSL(Windows Subsystem for Linux)以及将 PyCharm 2024 连接到 WSL
linux·pycharm
Pythonliu71 小时前
茴香豆 + Qwen-7B-Chat-Int8
linux·运维·服务器
你疯了抱抱我1 小时前
【RockyLinux 9.4】安装 NVIDIA 驱动,改变分辨率,避坑版本。(CentOS 系列也能用)
linux·运维·centos
追风赶月、1 小时前
【Linux】进程地址空间(初步了解)
linux
栎栎学编程1 小时前
Linux中环境变量
linux
狼头长啸李树身2 小时前
眼儿媚·秋雨绵绵窗暗暗
大数据·网络·服务发现·媒体
挥剑决浮云 -2 小时前
Linux 之 安装软件、GCC编译器、Linux 操作系统基础
linux·服务器·c语言·c++·经验分享·笔记