hadoop在本地创建文件,然后将文件拷贝/上传到HDFS

1.要$cd {对应目录}进入到对应目录,一般为

复制代码
cd /usr/local/hadoop/

2.创建文件,$sudo gedit {文件名},例

复制代码
sudo gedit test.txt

然后在弹出的txt文件输入内容,点击右上角的保存之后,关闭即可。

3.拷贝本地文件到HDFS,$./bin/hdfs dfs -copyFromLocal {本地文件或者文件夹名} {HDFS上的文件或者文件夹名或者./}

复制代码
./bin/hdfs dfs -copyFromLocal test.txt ./

成功之后显示如下:

上传本地文件到HDFS,$./bin/hdfs dfs -moveFromLocal {本地文件或者文件夹名} {HDFS上的文件或者文件夹名或者./}

复制代码
./bin/hdfs dfs -moveFromLocal 1.txt ./

回车之后没有显示什么东西,你可以通过$ls来查看前后本地文件的变化。

4.查看HDFS,使用http://localhost:{端口号}或者$./bin/hadoop fs -ls /查看

复制代码
./bin/hadoop fs -ls /
相关推荐
weisian15131 分钟前
Elasticsearch-2--ES的架构和工作原理
大数据·elasticsearch·架构
yangmf20401 小时前
LDAP 认证系列(四):Gateway LDAP 认证
大数据·elasticsearch·搜索引擎·gateway·ldap
yangmf20402 小时前
APM 系列(一):Skywalking 与 Easyearch 集成
大数据·elasticsearch·搜索引擎·skywalking
Flink_China6 小时前
Apache Flink错误处理实战手册:2年生产环境调试经验总结
大数据·flink
2501_924879266 小时前
客流特征识别误报率↓76%!陌讯多模态时序融合算法在智慧零售的实战解析
大数据·人工智能·算法·目标检测·计算机视觉·视觉检测·零售
eqwaak07 小时前
科技信息差(8.26)
大数据·开发语言·人工智能·编辑器
念夏沫7 小时前
“华生科技杯”2025年全国青少年龙舟锦标赛在海宁举行
大数据·人工智能·科技
白鲸开源8 小时前
DolphinScheduler API与SDK实战:版本管理、系统集成与扩展全指南
大数据·api·ai编程
fanstuck8 小时前
亚马逊云科技免费套餐新政解析与实战:数据分析与可视化平台
大数据·科技·数据分析·数据可视化·aws