6.0 MapReduce 服务使用教程

在学习了之前的 MapReduce 概念之后,我们应该已经知道什么是 Map 和 Reduce,并了解了他们的工作方式。

本章将学习如何使用 MapReduce。

Word Count

Word Count 就是"词语统计",这是 MapReduce 工作程序中最经典的一种。它的主要任务是对一个文本文件中的词语作归纳统计,统计出每个出现过的词语一共出现的次数。

Hadoop 中包含了许多经典的 MapReduce 示例程序,其中就包含 Word Count。

**注意:**这个案例在 HDFS 不运行的状态下依然可以运行,所以我们先在单机模式下测试

首先,启动一个之前制作的 hadoop_proto 镜像的新容器:

bash 复制代码
docker run -d --name=word_count hadoop_proto

进入容器:

bash 复制代码
docker exec -it word_count bash

进入 HOME 目录:

bash 复制代码
cd ~

现在我们准备一份文本文件 input.txt:

bash 复制代码
I love erdangjiade.com
I like erdangjiade.com
I love hadoop
I like hadoop

将以上内容用文本编辑器保存。

执行 MapReduce:

bash 复制代码
hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jar wordcount input.txt output

解释一下含义:

hadoop jar从 jar 文件执行 MapReduce 任务,之后跟着的是示例程序包的路径。

wordcount表示执行示例程序包中的 Word Count 程序,之后跟这两个参数,第一个是输入文件,第二个是输出结果的目录名(因为输出结果是多个文件)。

执行之后,应该会输出一个文件夹 output,在这个文件夹里有两个文件:_SUCCESS 和 part-r-00000。

其中 _SUCCESS 只是用于表达执行成功的空文件,part-r-00000 则是处理结果,当我们显示一下它的内容:

bash 复制代码
cat ~/output/part-r-00000

你应该可以看到如下信息:

bash 复制代码
I       4
hadoop  2
like    2
love    2
erdangjiade.com  2

集群模式

现在我们在集群模式下运行 MapReduce。

启动在上一章配置好的集群容器:

bash 复制代码
docker start nn dn1 dn2

进入 NameNode 容器:

bash 复制代码
docker exec -it nn su hadoop

进入 HOME:

bash 复制代码
cd ~

编辑 input.txt:

bash 复制代码
I love erdangjiade.com
I like erdangjiade.com
I love hadoop
I like hadoop

启动 HDFS:

bash 复制代码
start-dfs.sh

创建目录:

bash 复制代码
hadoop fs -mkdir /wordcount
hadoop fs -mkdir /wordcount/input

上传 input.txt

bash 复制代码
hadoop fs -put input.txt /wordcount/input/

执行 Word Count:

bash 复制代码
hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jar wordcount /wordcount/input /wordcount/output

查看执行结果:

bash 复制代码
hadoop fs -cat /wordcount/output/part-r-00000

如果一切正常,将会显示以下结果:

bash 复制代码
I       4
hadoop  2
like    2
love    2
erdangjiade.com  2

希望你也学会了,更多编程源码模板请来二当家的素材网:https://www.erdangjiade.com

相关推荐
永洪科技3 小时前
永洪科技荣获商业智能品牌影响力奖,全力打造”AI+决策”引擎
大数据·人工智能·科技·数据分析·数据可视化·bi
weixin_307779134 小时前
Hive集群之间迁移的Linux Shell脚本
大数据·linux·hive·bash·迁移学习
上海锝秉工控7 小时前
防爆拉线位移传感器:工业安全的“隐形守护者”
大数据·人工智能·安全
cv高级工程师YKY7 小时前
SRE - - PV、UV、VV、IP详解及区别
大数据·服务器·uv
bxlj_jcj8 小时前
深入Flink核心概念:解锁大数据流处理的奥秘
大数据·flink
云资源服务商8 小时前
阿里云Flink:开启大数据实时处理新时代
大数据·阿里云·云计算
Aurora_NeAr9 小时前
Spark SQL架构及高级用法
大数据·后端·spark
王小王-1239 小时前
基于Hadoop的公共自行车数据分布式存储和计算平台的设计与实现
大数据·hive·hadoop·分布式·hadoop公共自行车·共享单车大数据分析·hadoop共享单车
数据与人工智能律师9 小时前
数字资产革命中的信任之锚:RWA法律架构的隐形密码
大数据·网络·人工智能·云计算·区块链
Edingbrugh.南空10 小时前
Flink OceanBase CDC 环境配置与验证
大数据·flink·oceanbase