十七、如何将MapReduce程序提交到YARN运行

1、启动某个节点的某一个用户

cs 复制代码
hadoop@node1:~$ jps
13025 Jps
hadoop@node1:~$ yarn --daemon start resourcemanager
hadoop@node1:~$ jps
13170 ResourceManager
13253 Jps
hadoop@node1:~$ yarn --daemon start nodemanager
hadoop@node1:~$ jps
13170 ResourceManager
15062 Jps
14890 NodeManager

2、常见程序

3、 提交实例

(1)使用自带程序提交

(2) 语法

此处需要注意,对于有返回值的程序,需要指定程序参数。

(3)明确命令jar命令所在目录

cs 复制代码
/export/server/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar

对于这些Hadoop内置的程序,他们都存储在hadoop-mapreduce-examples-3.3.6.jar中,如wordcount单词计数程序、pi求圆周率程序。

(4)执行wordcount程序(默认文件已经上传到hdfs文件系统)

~前提

首先,明确wordcount程序有返回值,所以需要指定程序参数:

程序参数\]:参数1是数据输入路径(hdfs://node1:8020/input/wordcount/) \[程序参数\]:参数2是结果输出路径(hdfs://node1:8020/output/wc1),需要确保输出的文件夹不存在,否则会报错 #### \~执行 ```cs hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.1.jar wordcount hdfs://node1:8020/input/wordcount/ hdfs://node1:8020/output/some ``` #### \~查看结果 执行完成后,查看some文件夹,可以看到some文件夹中存在两个子文件,第一个文件的文件名的最后一个单词,代表了本次程序运行是否成功,第二个文件存放着程序运行之后的结果。 ```cs hadoop@node1:~$ hdfs dfs -ls hdfs://node1:8020/output/some Found 2 items -rw-r--r-- 3 hadoop supergroup 0 2023-12-16 22:37 hdfs://node1:8020/output/some/_SUCCESS -rw-r--r-- 3 hadoop supergroup 351 2023-12-16 22:37 hdfs://node1:8020/output/some/part-r-00000 ``` 程序运行之后的结果为: ```cs hadoop@node1:~$ hdfs dfs -cat hdfs://node1:8020/output/some/part-r-00000 Because 1 Hello,my 1 I 7 I'll 1 If 1 Now 1 XX 1 XXX. 1 a 2 am 1 best 1 bird. 1 blue 1 can 2 chance 1 child. 1 come 1 day 1 do 1 dream 2 everything 1 fly 1 graduatedfrom 1 have 2 i 1 in 1 is 1 it 1 job. 2 like 1 love 1 make 1 my 1 name 1 old.I 1 one 1 since 1 sky 1 some 3 take 1 that 1 the 3 this 2 to 2 true. 1 try 1 was 1 well. 1 years 1 yjbys. 1 ``` ### (5)在Hadoop提供的Web页面上查看 #### \~点击程序名 ![](https://file.jishuzhan.net/article/1736299697636642818/00a8d4df9a479fa5ff34a9f06148dcf5.webp) #### \~查看详细信息 ![](https://file.jishuzhan.net/article/1736299697636642818/17928bd800c6ef5016d3bd6101283e72.webp) ![](https://file.jishuzhan.net/article/1736299697636642818/88e652cb8690b3269d063848d9d233ab.webp) #### \~查看运行日志 ![](https://file.jishuzhan.net/article/1736299697636642818/6b5fe343e5b47c2af63b064cb72a9203.webp) ![](https://file.jishuzhan.net/article/1736299697636642818/b2a938bd4d9968ad97a8fae02ebb7d8c.webp) #### \~map 和 reduce任务历史查看 ![](https://file.jishuzhan.net/article/1736299697636642818/507fb9927932b73f25b29cd7925a95f6.webp) ![](https://file.jishuzhan.net/article/1736299697636642818/89fdbf8687a58af32fca2b220ffb4672.webp) ![](https://file.jishuzhan.net/article/1736299697636642818/66f01767001ba4e48f6c3e151fd8d343.webp)

相关推荐
萧鼎2 分钟前
深入解析 Python 的 pytun 库:虚拟网络接口与隧道技术实战指南
服务器·网络·python
IT研究室13 分钟前
大数据毕业设计选题推荐-基于大数据的国内旅游景点游客数据分析系统-Spark-Hadoop-Bigdata
大数据·hadoop·spark·毕业设计·源码·数据可视化·bigdata
Re_Yang0917 分钟前
2025年统计与数据分析领域专业认证发展指南
服务器·人工智能·数据分析
牛奶咖啡131 小时前
从零到一使用Linux+Nginx+MySQL+PHP搭建的Web网站服务器架构环境——LNMP(上)
linux·lnmp·ngnix的源码安装部署·mysql的二进制文件安装部署·php源码的安装部署·记录并解决安装php的各种问题
Lx3521 小时前
YARN资源调度优化:最大化集群利用率
大数据·hadoop
智能化咨询1 小时前
【56页PPT】数字化智能工厂总体设计SRMWCSWMSMES&EMS系统建设方案(附下载方式)
大数据·云计算
在未来等你1 小时前
Elasticsearch面试精讲 Day 12:数据建模与字段类型选择
大数据·分布式·elasticsearch·搜索引擎·面试
Leo.yuan1 小时前
不同数据仓库模型有什么不同?企业如何选择适合的数据仓库模型?
大数据·数据库·数据仓库·信息可视化·spark
软件测试很重要1 小时前
UOS20系统安装与 SSH/XRDP 远程访问功能配置指南
linux·运维·ssh
chat2tomorrow2 小时前
数据采集平台的起源与演进:从ETL到数据复制
大数据·数据库·数据仓库·mysql·低代码·postgresql·etl