hadoop3跑第一个例子wordcount

1、创建目录

bash 复制代码
hdfs dfs -mkdir -p /user/input

2、创建测试文件,并上传文件到hdfs

bash 复制代码
echo '1' > 1.txt
hdfs dfs -put 1.txt /user/input

3、进入hadoop-3目录,并创建测试文件

bash 复制代码
cd /app/hadoop-3

创建目录

mkdir wcinput

cd wcinput

保存wc.input

nano wc.input

bash 复制代码
hadoop yarn
hadoop mapreduce
spark
spark

上传文件

bash 复制代码
hdfs dfs -put wcinput/wc.input /user/input/

4、使用词频测试wordcount

bash 复制代码
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /user/input/ /user/output

问题:

如果卡住很久,修改更改mapred-site.xml文件将

bash 复制代码
<property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
</property>

改为:

bash 复制代码
<property>
      <name>mapreduce.job.tracker</name>
      <value>hdfs://此处为自己的电脑IP:8001</value>
      <final>true</final>
 </property>

再次运行即可。

bash 复制代码
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /user/input/ /user/output

5、输出统计结果

bash 复制代码
hdfs dfs -cat /user/output/*

6、修改hdfs的权限 不一定用

bash 复制代码
hdfs dfs -chmod -R 755 / 

7、常用地址

http://192.168.6.19:9870/ 查看文件

http://192.168.6.19:8088/查看mapreduce情况

8、删除输出目录

bash 复制代码
hdfs dfs -rm -R /user/output

9、如果跑例子时提示出错,找不到resource-types.xml文件,则

nano etc/hadoop/resource-types.xml

内容如下:

bash 复制代码
<configuration>
  <property>
    <name>yarn.resource-types</name>
    <value>resource1, resource2</value>
  </property>

  <property>
    <name>yarn.resource-types.resource1.units</name>
    <value>G</value>
  </property>

  <property>
    <name>yarn.resource-types.resource2.minimum</name>
    <value>1</value>
  </property>

  <property>
    <name>yarn.resource-types.resource2.maximum</name>
    <value>1024</value>
  </property>
</configuration>

10、 提示错误:Couldn't preview the file. NetworkError: Failed to execute 'send' on 'XMLHttpRequest': Failed to load

hdfs-site.xml 增加内容,用于web预览文件

bash 复制代码
<property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
</property>

11、如果windows下需要预览文件

在C:\Windows\System32\drivers\etc\hosts

增加: 192.168.6.19 master 即可

相关推荐
Hsu_kk39 分钟前
Hive 查询各类型专利 Top 10 申请人及对应的专利申请数
数据仓库·hive·hadoop
大数据编程之光43 分钟前
Hive 查询各类型专利 top10 申请人及专利申请数
大数据·数据仓库·hive·hadoop
杰克逊的日记1 小时前
Hive详解
数据仓库·hive·hadoop
上辈子杀猪这辈子学IT1 小时前
【Zookeeper集群搭建】安装zookeeper、zookeeper集群配置、zookeeper启动与关闭、zookeeper的shell命令操作
linux·hadoop·zookeeper·centos·debian
Hsu_kk3 小时前
Hive 查询用户连续三天登录的所有记录
数据仓库·hive·hadoop
kakwooi7 小时前
Hadoop---MapReduce(3)
大数据·hadoop·mapreduce
windy1a7 小时前
【c知道】Hadoop工作原理。
hadoop
油头少年_w12 小时前
大数据导论及分布式存储HadoopHDFS入门
大数据·hadoop·hdfs
工业互联网专业15 小时前
Python毕业设计选题:基于Hadoop的租房数据分析系统的设计与实现
vue.js·hadoop·python·flask·毕业设计·源码·课程设计
bigdata-余建新1 天前
HDFS和HBase跨集群数据迁移 源码
hadoop·hdfs·hbase