hadoop3跑第一个例子wordcount

1、创建目录

bash 复制代码
hdfs dfs -mkdir -p /user/input

2、创建测试文件,并上传文件到hdfs

bash 复制代码
echo '1' > 1.txt
hdfs dfs -put 1.txt /user/input

3、进入hadoop-3目录,并创建测试文件

bash 复制代码
cd /app/hadoop-3

创建目录

mkdir wcinput

cd wcinput

保存wc.input

nano wc.input

bash 复制代码
hadoop yarn
hadoop mapreduce
spark
spark

上传文件

bash 复制代码
hdfs dfs -put wcinput/wc.input /user/input/

4、使用词频测试wordcount

bash 复制代码
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /user/input/ /user/output

问题:

如果卡住很久,修改更改mapred-site.xml文件将

bash 复制代码
<property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
</property>

改为:

bash 复制代码
<property>
      <name>mapreduce.job.tracker</name>
      <value>hdfs://此处为自己的电脑IP:8001</value>
      <final>true</final>
 </property>

再次运行即可。

bash 复制代码
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /user/input/ /user/output

5、输出统计结果

bash 复制代码
hdfs dfs -cat /user/output/*

6、修改hdfs的权限 不一定用

bash 复制代码
hdfs dfs -chmod -R 755 / 

7、常用地址

http://192.168.6.19:9870/ 查看文件

http://192.168.6.19:8088/查看mapreduce情况

8、删除输出目录

bash 复制代码
hdfs dfs -rm -R /user/output

9、如果跑例子时提示出错,找不到resource-types.xml文件,则

nano etc/hadoop/resource-types.xml

内容如下:

bash 复制代码
<configuration>
  <property>
    <name>yarn.resource-types</name>
    <value>resource1, resource2</value>
  </property>

  <property>
    <name>yarn.resource-types.resource1.units</name>
    <value>G</value>
  </property>

  <property>
    <name>yarn.resource-types.resource2.minimum</name>
    <value>1</value>
  </property>

  <property>
    <name>yarn.resource-types.resource2.maximum</name>
    <value>1024</value>
  </property>
</configuration>

10、 提示错误:Couldn't preview the file. NetworkError: Failed to execute 'send' on 'XMLHttpRequest': Failed to load

hdfs-site.xml 增加内容,用于web预览文件

bash 复制代码
<property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
</property>

11、如果windows下需要预览文件

在C:\Windows\System32\drivers\etc\hosts

增加: 192.168.6.19 master 即可

相关推荐
The Sheep 202317 分钟前
WPF自定义路由事件
大数据·hadoop·wpf
还是大剑师兰特9 小时前
Hadoop面试题及详细答案 110题 (86-95)-- Hadoop生态系统工具
hadoop·大剑师·hadoop面试题
yumgpkpm9 小时前
CMP (类Cloudera) CDP7.3(400次编译)在华为鲲鹏Aarch64(ARM)信创环境中的性能测试过程及命令
大数据·hive·hadoop·python·elasticsearch·spark·cloudera
Q264336502310 小时前
大数据实战项目-基于K-Means算法与Spark的豆瓣读书数据分析与可视化系统-基于python的豆瓣读书数据分析与可视化大屏
大数据·hadoop·机器学习·数据分析·spark·毕业设计·kmeans
大数据CLUB12 小时前
基于spark的抖音短视频数据分析及可视化
大数据·hadoop·分布式·数据分析·spark
yumgpkpm12 小时前
大数据综合管理平台(CMP)(类Cloudera CDP7.3)有哪些核心功能?
hive·hadoop·elasticsearch·zookeeper·big data
板凳坐着晒太阳12 小时前
Hive 删除分区语句卡死问题
数据仓库·hive·hadoop
Q26433650231 天前
【有源码】基于Hadoop生态的大数据共享单车数据分析与可视化平台-基于Python与大数据的共享单车多维度数据分析可视化系统
大数据·hadoop·python·机器学习·数据分析·spark·毕业设计
计算机毕业设计木哥1 天前
计算机毕设选题推荐:基于Hadoop和Python的游戏销售大数据可视化分析系统
大数据·开发语言·hadoop·python·信息可视化·spark·课程设计
嘉禾望岗5031 天前
hive on tez运行及hive ha搭建
数据仓库·hive·hadoop