hadoop在本地创建文件,然后将文件拷贝/上传到HDFS

1.要$cd {对应目录}进入到对应目录,一般为

复制代码
cd /usr/local/hadoop/

2.创建文件,$sudo gedit {文件名},例

复制代码
sudo gedit test.txt

然后在弹出的txt文件输入内容,点击右上角的保存之后,关闭即可。

3.拷贝本地文件到HDFS,$./bin/hdfs dfs -copyFromLocal {本地文件或者文件夹名} {HDFS上的文件或者文件夹名或者./}

复制代码
./bin/hdfs dfs -copyFromLocal test.txt ./

成功之后显示如下:

上传本地文件到HDFS,$./bin/hdfs dfs -moveFromLocal {本地文件或者文件夹名} {HDFS上的文件或者文件夹名或者./}

复制代码
./bin/hdfs dfs -moveFromLocal 1.txt ./

回车之后没有显示什么东西,你可以通过$ls来查看前后本地文件的变化。

4.查看HDFS,使用http://localhost:{端口号}或者$./bin/hadoop fs -ls /查看

复制代码
./bin/hadoop fs -ls /
相关推荐
老蒋新思维7 小时前
创客匠人视角:智能体重构创始人 IP,知识变现从 “内容售卖” 到 “能力复制” 的革命
大数据·网络·人工智能·tcp/ip·创始人ip·创客匠人·知识变现
笨蛋少年派8 小时前
Flume数据采集工具简介
大数据
梦里不知身是客118 小时前
spark中如何调节Executor的堆外内存
大数据·javascript·spark
小C8069 小时前
【Starrocks + Hive 】BitMap + 物化视图 实战记录
大数据
西格电力科技10 小时前
面向工业用户的绿电直连架构适配技术:高可靠与高弹性的双重设计
大数据·服务器·人工智能·架构·能源
beijingliushao12 小时前
105-Spark之Standalone HA环境搭建过程
大数据·spark
五阿哥永琪12 小时前
Git 开发常用命令速查手册
大数据·git·elasticsearch
数字会议深科技12 小时前
深科技 | 高端会议室效率升级指南:无纸化会议系统的演进与价值
大数据·人工智能·会议系统·无纸化·会议系统品牌·综合型系统集成商·会议室
容智信息12 小时前
容智Report Agent智能体驱动财务自动化,从核算迈向价值创造
大数据·运维·人工智能·自然语言处理·自动化·政务