hadoop3跑第一个例子wordcount

1、创建目录

bash 复制代码
hdfs dfs -mkdir -p /user/input

2、创建测试文件,并上传文件到hdfs

bash 复制代码
echo '1' > 1.txt
hdfs dfs -put 1.txt /user/input

3、进入hadoop-3目录,并创建测试文件

bash 复制代码
cd /app/hadoop-3

创建目录

mkdir wcinput

cd wcinput

保存wc.input

nano wc.input

bash 复制代码
hadoop yarn
hadoop mapreduce
spark
spark

上传文件

bash 复制代码
hdfs dfs -put wcinput/wc.input /user/input/

4、使用词频测试wordcount

bash 复制代码
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /user/input/ /user/output

问题:

如果卡住很久,修改更改mapred-site.xml文件将

bash 复制代码
<property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
</property>

改为:

bash 复制代码
<property>
      <name>mapreduce.job.tracker</name>
      <value>hdfs://此处为自己的电脑IP:8001</value>
      <final>true</final>
 </property>

再次运行即可。

bash 复制代码
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /user/input/ /user/output

5、输出统计结果

bash 复制代码
hdfs dfs -cat /user/output/*

6、修改hdfs的权限 不一定用

bash 复制代码
hdfs dfs -chmod -R 755 / 

7、常用地址

http://192.168.6.19:9870/ 查看文件

http://192.168.6.19:8088/查看mapreduce情况

8、删除输出目录

bash 复制代码
hdfs dfs -rm -R /user/output

9、如果跑例子时提示出错,找不到resource-types.xml文件,则

nano etc/hadoop/resource-types.xml

内容如下:

bash 复制代码
<configuration>
  <property>
    <name>yarn.resource-types</name>
    <value>resource1, resource2</value>
  </property>

  <property>
    <name>yarn.resource-types.resource1.units</name>
    <value>G</value>
  </property>

  <property>
    <name>yarn.resource-types.resource2.minimum</name>
    <value>1</value>
  </property>

  <property>
    <name>yarn.resource-types.resource2.maximum</name>
    <value>1024</value>
  </property>
</configuration>

10、 提示错误:Couldn't preview the file. NetworkError: Failed to execute 'send' on 'XMLHttpRequest': Failed to load

hdfs-site.xml 增加内容,用于web预览文件

bash 复制代码
<property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
</property>

11、如果windows下需要预览文件

在C:\Windows\System32\drivers\etc\hosts

增加: 192.168.6.19 master 即可

相关推荐
计算机毕设-小月哥4 小时前
完整源码+技术文档!基于Hadoop+Spark的鲍鱼生理特征大数据分析系统免费分享
大数据·hadoop·spark·numpy·pandas·计算机毕业设计
zhang98800001 天前
储能领域大数据平台的设计中如何使用 Hadoop、Spark、Flink 等组件实现数据采集、清洗、存储及实时 / 离线计算,支持储能系统分析与预测
大数据·hadoop·spark
Lx3521 天前
Hadoop日志分析实战:快速定位问题的技巧
大数据·hadoop
喂完待续1 天前
【Tech Arch】Hive技术解析:大数据仓库的SQL桥梁
大数据·数据仓库·hive·hadoop·sql·apache
最初的↘那颗心1 天前
Flink Stream API 源码走读 - window 和 sum
大数据·hadoop·flink·源码·实时计算·窗口函数
计艺回忆路2 天前
从Podman开始一步步构建Hadoop开发集群
hadoop
计算机源码社3 天前
分享一个基于Hadoop的二手房销售签约数据分析与可视化系统,基于Python可视化的二手房销售数据分析平台
大数据·hadoop·python·数据分析·毕业设计项目·毕业设计源码·计算机毕设选题
计算机毕设残哥3 天前
完整技术栈分享:基于Hadoop+Spark的在线教育投融资大数据可视化分析系统
大数据·hadoop·python·信息可视化·spark·计算机毕设·计算机毕业设计
计算机源码社4 天前
分享一个基于Hadoop+spark的超市销售数据分析与可视化系统,超市顾客消费行为分析系统的设计与实现
大数据·hadoop·数据分析·spark·计算机毕业设计源码·计算机毕设选题·大数据选题推荐
beijingliushao4 天前
33-Hive SQL DML语法之查询数据-2
hive·hadoop·sql