hadoop3跑第一个例子wordcount

1、创建目录

bash 复制代码
hdfs dfs -mkdir -p /user/input

2、创建测试文件,并上传文件到hdfs

bash 复制代码
echo '1' > 1.txt
hdfs dfs -put 1.txt /user/input

3、进入hadoop-3目录,并创建测试文件

bash 复制代码
cd /app/hadoop-3

创建目录

mkdir wcinput

cd wcinput

保存wc.input

nano wc.input

bash 复制代码
hadoop yarn
hadoop mapreduce
spark
spark

上传文件

bash 复制代码
hdfs dfs -put wcinput/wc.input /user/input/

4、使用词频测试wordcount

bash 复制代码
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /user/input/ /user/output

问题:

如果卡住很久,修改更改mapred-site.xml文件将

bash 复制代码
<property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
</property>

改为:

bash 复制代码
<property>
      <name>mapreduce.job.tracker</name>
      <value>hdfs://此处为自己的电脑IP:8001</value>
      <final>true</final>
 </property>

再次运行即可。

bash 复制代码
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /user/input/ /user/output

5、输出统计结果

bash 复制代码
hdfs dfs -cat /user/output/*

6、修改hdfs的权限 不一定用

bash 复制代码
hdfs dfs -chmod -R 755 / 

7、常用地址

http://192.168.6.19:9870/ 查看文件

http://192.168.6.19:8088/查看mapreduce情况

8、删除输出目录

bash 复制代码
hdfs dfs -rm -R /user/output

9、如果跑例子时提示出错,找不到resource-types.xml文件,则

nano etc/hadoop/resource-types.xml

内容如下:

bash 复制代码
<configuration>
  <property>
    <name>yarn.resource-types</name>
    <value>resource1, resource2</value>
  </property>

  <property>
    <name>yarn.resource-types.resource1.units</name>
    <value>G</value>
  </property>

  <property>
    <name>yarn.resource-types.resource2.minimum</name>
    <value>1</value>
  </property>

  <property>
    <name>yarn.resource-types.resource2.maximum</name>
    <value>1024</value>
  </property>
</configuration>

10、 提示错误:Couldn't preview the file. NetworkError: Failed to execute 'send' on 'XMLHttpRequest': Failed to load

hdfs-site.xml 增加内容,用于web预览文件

bash 复制代码
<property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
</property>

11、如果windows下需要预览文件

在C:\Windows\System32\drivers\etc\hosts

增加: 192.168.6.19 master 即可

相关推荐
王小王-1232 小时前
基于Hadoop的餐饮大数据分析系统的设计与实现
hive·hadoop·flask·sqoop·pyecharts·hadoop餐饮大数据分析·hadoop美食数据分析
大数据CLUB6 小时前
基于spark的航班价格分析预测及可视化
大数据·hadoop·分布式·数据分析·spark·数据可视化
大数据CLUB10 天前
基于pyspark的北京历史天气数据分析及可视化_离线
大数据·hadoop·数据挖掘·数据分析·spark
張萠飛10 天前
hive集群优化和治理常见的问题答案
数据仓库·hive·hadoop
高小秋13 天前
Hadoop 技术生态体系
大数据·hadoop·分布式
火龙谷14 天前
【hadoop】搭建考试环境(单机)
大数据·hadoop·分布式
liuze40814 天前
在VMware虚拟机集群中,完成Hive的安装部署
数据仓库·hive·hadoop
雷神乐乐14 天前
Hive优化详细讲解
数据仓库·hive·hadoop
Edingbrugh.南空14 天前
Hudi 与 Hive 集成
数据仓库·hive·hadoop
Edingbrugh.南空14 天前
Hive集成Paimon
数据仓库·hive·hadoop