hadoop在本地创建文件,然后将文件拷贝/上传到HDFS

1.要$cd {对应目录}进入到对应目录,一般为

复制代码
cd /usr/local/hadoop/

2.创建文件,$sudo gedit {文件名},例

复制代码
sudo gedit test.txt

然后在弹出的txt文件输入内容,点击右上角的保存之后,关闭即可。

3.拷贝本地文件到HDFS,$./bin/hdfs dfs -copyFromLocal {本地文件或者文件夹名} {HDFS上的文件或者文件夹名或者./}

复制代码
./bin/hdfs dfs -copyFromLocal test.txt ./

成功之后显示如下:

上传本地文件到HDFS,$./bin/hdfs dfs -moveFromLocal {本地文件或者文件夹名} {HDFS上的文件或者文件夹名或者./}

复制代码
./bin/hdfs dfs -moveFromLocal 1.txt ./

回车之后没有显示什么东西,你可以通过$ls来查看前后本地文件的变化。

4.查看HDFS,使用http://localhost:{端口号}或者$./bin/hadoop fs -ls /查看

复制代码
./bin/hadoop fs -ls /
相关推荐
极客数模8 小时前
【2026美赛赛题初步翻译F题】2026_ICM_Problem_F
大数据·c语言·python·数学建模·matlab
编程彩机10 小时前
互联网大厂Java面试:从分布式架构到大数据场景解析
java·大数据·微服务·spark·kafka·分布式事务·分布式架构
vx-bot55566611 小时前
企业微信接口在多租户SaaS平台中的集成架构与数据隔离实践
大数据·架构·企业微信
bubuly13 小时前
软件开发全流程注意事项:从需求到运维的全方位指南
大数据·运维·数据库
xixixi7777715 小时前
基于零信任架构的通信
大数据·人工智能·架构·零信任·通信·个人隐私
Hello.Reader15 小时前
Flink 自适应批执行(Adaptive Batch Execution)让 Batch 作业“边跑边优化”
大数据·flink·batch
LaughingZhu17 小时前
Product Hunt 每日热榜 | 2026-01-31
大数据·人工智能·经验分享·搜索引擎·产品运营
babe小鑫17 小时前
中专学历进入快消大厂终端销售岗位的可行性分析
大数据
samFuB17 小时前
【工具变量】区县5A级旅游景区DID数据集(2000-2025年)
大数据
百夜﹍悠ゼ17 小时前
数据治理DataHub安装部署
大数据·数据治理