hadoop在本地创建文件,然后将文件拷贝/上传到HDFS

1.要$cd {对应目录}进入到对应目录,一般为

cd /usr/local/hadoop/

2.创建文件,$sudo gedit {文件名},例

sudo gedit test.txt

然后在弹出的txt文件输入内容,点击右上角的保存之后,关闭即可。

3.拷贝本地文件到HDFS,$./bin/hdfs dfs -copyFromLocal {本地文件或者文件夹名} {HDFS上的文件或者文件夹名或者./}

./bin/hdfs dfs -copyFromLocal test.txt ./

成功之后显示如下:

上传本地文件到HDFS,$./bin/hdfs dfs -moveFromLocal {本地文件或者文件夹名} {HDFS上的文件或者文件夹名或者./}

./bin/hdfs dfs -moveFromLocal 1.txt ./

回车之后没有显示什么东西,你可以通过$ls来查看前后本地文件的变化。

4.查看HDFS,使用http://localhost:{端口号}或者$./bin/hadoop fs -ls /查看

./bin/hadoop fs -ls /
相关推荐
Mephisto.java1 小时前
【大数据学习 | HBASE高级】hbase-phoenix 与二次索引应用
大数据·sql·oracle·sqlite·json·hbase
Mephisto.java1 小时前
【大数据学习 | flume】flume之常见的source组件
大数据·sql·oracle·json·database·flume
b_qixin2 小时前
银行如何发展绿色金融?如何评估绿色项目?
大数据·人工智能·金融
考试宝2 小时前
新能源汽车关键技术技能大赛理论知识竞赛题库
大数据·网络·职场和发展·汽车·学习方法·业界资讯
小王毕业啦2 小时前
省级金融发展水平数据(2000-2022年)
大数据·人工智能·金融·数据挖掘·数据分析·社科数据
GIS前沿~2 小时前
地质旅游平台推动“旅游+地质”融合发展
大数据·5g·旅游
Boundivore 班德沃3 小时前
使用阿里云快速搭建 DataLight 平台
大数据·阿里云·开源·云计算
智通财经快讯3 小时前
FBX福币交易所多只高位股重挫,聚星科技首日高开348%
大数据·人工智能·科技
小王毕业啦3 小时前
省级生活垃圾无害化处理率面板数据(2004-2022年)
大数据·人工智能·数据挖掘·数据分析·生活·社科数据
流浪在地球上的小朋友3 小时前
移门缓冲支架:减少噪音,提升生活质量
大数据·搜索引擎·云计算·全文检索·big data