hadoop3跑第一个例子wordcount

1、创建目录

bash 复制代码
hdfs dfs -mkdir -p /user/input

2、创建测试文件,并上传文件到hdfs

bash 复制代码
echo '1' > 1.txt
hdfs dfs -put 1.txt /user/input

3、进入hadoop-3目录,并创建测试文件

bash 复制代码
cd /app/hadoop-3

创建目录

mkdir wcinput

cd wcinput

保存wc.input

nano wc.input

bash 复制代码
hadoop yarn
hadoop mapreduce
spark
spark

上传文件

bash 复制代码
hdfs dfs -put wcinput/wc.input /user/input/

4、使用词频测试wordcount

bash 复制代码
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /user/input/ /user/output

问题:

如果卡住很久,修改更改mapred-site.xml文件将

bash 复制代码
<property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
</property>

改为:

bash 复制代码
<property>
      <name>mapreduce.job.tracker</name>
      <value>hdfs://此处为自己的电脑IP:8001</value>
      <final>true</final>
 </property>

再次运行即可。

bash 复制代码
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /user/input/ /user/output

5、输出统计结果

bash 复制代码
hdfs dfs -cat /user/output/*

6、修改hdfs的权限 不一定用

bash 复制代码
hdfs dfs -chmod -R 755 / 

7、常用地址

http://192.168.6.19:9870/ 查看文件

http://192.168.6.19:8088/查看mapreduce情况

8、删除输出目录

bash 复制代码
hdfs dfs -rm -R /user/output

9、如果跑例子时提示出错,找不到resource-types.xml文件,则

nano etc/hadoop/resource-types.xml

内容如下:

bash 复制代码
<configuration>
  <property>
    <name>yarn.resource-types</name>
    <value>resource1, resource2</value>
  </property>

  <property>
    <name>yarn.resource-types.resource1.units</name>
    <value>G</value>
  </property>

  <property>
    <name>yarn.resource-types.resource2.minimum</name>
    <value>1</value>
  </property>

  <property>
    <name>yarn.resource-types.resource2.maximum</name>
    <value>1024</value>
  </property>
</configuration>

10、 提示错误:Couldn't preview the file. NetworkError: Failed to execute 'send' on 'XMLHttpRequest': Failed to load

hdfs-site.xml 增加内容,用于web预览文件

bash 复制代码
<property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
</property>

11、如果windows下需要预览文件

在C:\Windows\System32\drivers\etc\hosts

增加: 192.168.6.19 master 即可

相关推荐
Aurora_eye1 天前
记录之Ubuntu22.4虚拟机及hadoop为分布式安装
大数据·hadoop·分布式
随心............2 天前
在开发过程中遇到问题如何解决,以及两个经典问题
hive·hadoop·spark
yumgpkpm2 天前
CMP (类ClouderaCDP7.3(404次编译) )华为鲲鹏Aarch64(ARM)信创环境 查询2100w行 hive 查询策略
数据库·数据仓库·hive·hadoop·flink·mapreduce·big data
K_i1343 天前
Hadoop 集群自动化运维实战
运维·hadoop·自动化
Q26433650233 天前
【有源码】基于Python与Spark的火锅店数据可视化分析系统-基于机器学习的火锅店综合竞争力评估与可视化分析-基于用户画像聚类的火锅店市场细分与可视化研究
大数据·hadoop·python·机器学习·数据分析·spark·毕业设计
顧棟3 天前
【Yarn实战】Yarn 2.9.1滚动升级到3.4.1调研与实践验证
hadoop·yarn
D明明就是我4 天前
Hive 拉链表
数据仓库·hive·hadoop
嘉禾望岗5034 天前
hive join优化和数据倾斜处理
数据仓库·hive·hadoop
yumgpkpm4 天前
华为鲲鹏 Aarch64 环境下多 Oracle 数据库汇聚操作指南 CMP(类 Cloudera CDP 7.3)
大数据·hive·hadoop·elasticsearch·zookeeper·big data·cloudera
忧郁火龙果4 天前
六、Hive的基本使用
数据仓库·hive·hadoop