1、创建目录
bash
hdfs dfs -mkdir -p /user/input
2、创建测试文件,并上传文件到hdfs
bash
echo '1' > 1.txt
hdfs dfs -put 1.txt /user/input
3、进入hadoop-3目录,并创建测试文件
bash
cd /app/hadoop-3
创建目录
mkdir wcinput
cd wcinput
保存wc.input
nano wc.input
bash
hadoop yarn
hadoop mapreduce
spark
spark
上传文件
bash
hdfs dfs -put wcinput/wc.input /user/input/
4、使用词频测试wordcount
bash
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /user/input/ /user/output
问题:
如果卡住很久,修改更改mapred-site.xml文件将
bash
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
改为:
bash
<property>
<name>mapreduce.job.tracker</name>
<value>hdfs://此处为自己的电脑IP:8001</value>
<final>true</final>
</property>
再次运行即可。
bash
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /user/input/ /user/output
5、输出统计结果
bash
hdfs dfs -cat /user/output/*
6、修改hdfs的权限 不一定用
bash
hdfs dfs -chmod -R 755 /
7、常用地址
http://192.168.6.19:9870/ 查看文件
http://192.168.6.19:8088/查看mapreduce情况
8、删除输出目录
bash
hdfs dfs -rm -R /user/output
9、如果跑例子时提示出错,找不到resource-types.xml文件,则
nano etc/hadoop/resource-types.xml
内容如下:
bash
<configuration>
<property>
<name>yarn.resource-types</name>
<value>resource1, resource2</value>
</property>
<property>
<name>yarn.resource-types.resource1.units</name>
<value>G</value>
</property>
<property>
<name>yarn.resource-types.resource2.minimum</name>
<value>1</value>
</property>
<property>
<name>yarn.resource-types.resource2.maximum</name>
<value>1024</value>
</property>
</configuration>
10、 提示错误:Couldn't preview the file. NetworkError: Failed to execute 'send' on 'XMLHttpRequest': Failed to load
hdfs-site.xml 增加内容,用于web预览文件
bash
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
11、如果windows下需要预览文件
在C:\Windows\System32\drivers\etc\hosts
增加: 192.168.6.19 master 即可