Hadoop•用Web UI查看Hadoop状态&词频统计

听说这里是目录哦

通过Web UI查看Hadoop运行状态🐇

一、关闭防火墙

在集群中每个虚拟机内执行
systemctl stop firewalld 【关闭防火墙】
systemctl disable firewalld 【禁止防火墙开机启动】

二、在物理计算机添加集群的IP映射

hosts文件末尾添加【解决HDFS网页无法查看文件】

这是我的,格式就是IP 虚拟机名

刷新DNS缓存:以管理员身份运行命令提示符,在命令提示符中输入ipconfig /flushdns

三、启动集群

Hadoop•搭建完全分布式集群目录中的启动Hadoop

四、进入HDFS的Web UI

在浏览器输入IP:9870,如192.168.88.151:9870192.168.88.151是我的主机IP,HDFS的Web UI端口一般都是9870

词频统计🦩

1、准备文本数据

在哪个目录下创建,路径就在哪。切到需要的目录下哦~【记住路径!!!】

命令用touch word.txt或者vi word.txt都行(创建一个名为word.txt文件)。

文件内要编写的内容如下图:

2、在HDFS创建目录

用命令hdfs dfs -mkdir -p /wordcount/input在HDFS创建/wordcount/input用于存放文件word.txt

3、上传文件

用命令hdfs dfs -put /export/data/word.txt /wordcount/input把位于/export/data/word.txt上传到HDFS的/wordcount/input

4、查看文件是否上传成功

进入HDFS的Web UI输入路径/wordcount/input,如果看到该目录下有word.txt,那word.txt就上传成功了

5、运行MapReduce程序

在主机node1 进入/export/servers/hadoop-3.1.4/share/hadoop/mapreduce目录下执行ll命令查看Hadoop提供的MapReduce程序hadoop-mapreduce-examples-3.1.4.jar。在该程序所在目录下执行命令hadoop jar hadoop-mapreduce-examples-3.1.4.jar wordcount /wordcount/input wordcount/output运行该程序即可实现词频统计,该命令中hadoop jar指定运行的MapReduce程序,第一个wordcount是程序名称【执行操作要用的】,/wordcount/input是要计算的文件word.txt所在的目录,wordcount/output是统计结果输出的目录【该目录会自动创建,所以不能提前创建】。注意,这里使用的都是HDFS文件系统的目录。

6、查看MapReduce程序运行状态

使用浏览器访问YARN在浏览器输入IP:8088,如192.168.88.151:8088192.168.88.151是我的主机IP,YARN的Web UI端口一般都是8088

7、查看统计结果

进入HDFS的Web UI,结果存放在wordcount/output目录,输入路径,然后Go!就行了。

🐇🐇🐇我是分割线

就是在物理计算机添加集群的IP映射

能量站😚

祝有爱者有爱,无爱者自由。

❤️谢谢你为自己努力❤️

相关推荐
阿里云大数据AI技术10 小时前
StarRocks 助力数禾科技构建实时数仓:从数据孤岛到智能决策
大数据
Lx35214 小时前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
武子康18 小时前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark
阿里云大数据AI技术1 天前
大数据公有云市场第一,阿里云占比47%!
大数据
Lx3522 天前
Hadoop容错机制深度解析:保障作业稳定运行
大数据·hadoop
Yasin Chen2 天前
Unity UI坐标说明
ui·unity
T06205142 天前
工具变量-5G试点城市DID数据(2014-2025年
大数据
向往鹰的翱翔2 天前
BKY莱德因:5大黑科技逆转时光
大数据·人工智能·科技·生活·健康医疗
鸿乃江边鸟2 天前
向量化和列式存储
大数据·sql·向量化
IT毕设梦工厂2 天前
大数据毕业设计选题推荐-基于大数据的客户购物订单数据分析与可视化系统-Hadoop-Spark-数据可视化-BigData
大数据·hadoop·数据分析·spark·毕业设计·源码·bigdata