hadoop在本地创建文件,然后将文件拷贝/上传到HDFS

1.要$cd {对应目录}进入到对应目录,一般为

复制代码
cd /usr/local/hadoop/

2.创建文件,$sudo gedit {文件名},例

复制代码
sudo gedit test.txt

然后在弹出的txt文件输入内容,点击右上角的保存之后,关闭即可。

3.拷贝本地文件到HDFS,$./bin/hdfs dfs -copyFromLocal {本地文件或者文件夹名} {HDFS上的文件或者文件夹名或者./}

复制代码
./bin/hdfs dfs -copyFromLocal test.txt ./

成功之后显示如下:

上传本地文件到HDFS,$./bin/hdfs dfs -moveFromLocal {本地文件或者文件夹名} {HDFS上的文件或者文件夹名或者./}

复制代码
./bin/hdfs dfs -moveFromLocal 1.txt ./

回车之后没有显示什么东西,你可以通过$ls来查看前后本地文件的变化。

4.查看HDFS,使用http://localhost:{端口号}或者$./bin/hadoop fs -ls /查看

复制代码
./bin/hadoop fs -ls /
相关推荐
阿里云大数据AI技术11 小时前
StarRocks 助力数禾科技构建实时数仓:从数据孤岛到智能决策
大数据
Lx35215 小时前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
dessler19 小时前
Hadoop HDFS-高可用集群部署
linux·运维·hdfs
武子康20 小时前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark
阿里云大数据AI技术1 天前
大数据公有云市场第一,阿里云占比47%!
大数据
Lx3522 天前
Hadoop容错机制深度解析:保障作业稳定运行
大数据·hadoop
T06205142 天前
工具变量-5G试点城市DID数据(2014-2025年
大数据
向往鹰的翱翔2 天前
BKY莱德因:5大黑科技逆转时光
大数据·人工智能·科技·生活·健康医疗
鸿乃江边鸟2 天前
向量化和列式存储
大数据·sql·向量化
IT毕设梦工厂2 天前
大数据毕业设计选题推荐-基于大数据的客户购物订单数据分析与可视化系统-Hadoop-Spark-数据可视化-BigData
大数据·hadoop·数据分析·spark·毕业设计·源码·bigdata