把本地文件上传到HDFS上操作步骤

因为条件有限,我这里以虚拟机centos为例

实验条件:我在虚拟机上创建了三台节点,部署了hadoop,把笔记本上的数据上传到hdfs中

  1. 数据打包上传到虚拟机节点上
    采用的是rz命令,可以帮我们上传数据
    没有的话可以使用命令安装yum install lrzsz
bash 复制代码
[root@node04 0007]# rz
  1. 解压
    没有解压命令可以安装yum install unzip
bash 复制代码
[root@node04 data]# unzip 0007.zip
  1. 启动hads服务
bash 复制代码
[root@node04 data]# start-dfs.sh
  1. 查看hdfs下的目录结构
bash 复制代码
[root@node04 data]# hadoop dfs -ls /
  1. 在hdfs上为我们的数据创建目录
bash 复制代码
hadoop dfs -mkdir /data
  1. 把数据放到hdfs中
bash 复制代码
hadoop dfs -put /opt/data/0007/ /data/
  1. 查看结果
    存放成功
相关推荐
Oo_Amy_oO22 分钟前
Airflow+Spark/Flink vs. Kettle
大数据·flink·spark
一个天蝎座 白勺 程序猿35 分钟前
大数据(4.4)Hive多表JOIN终极指南:7大关联类型与性能优化实战解析
hive·hadoop·性能优化
后端小肥肠1 小时前
港大团队开源LightRAG:知识图谱+双层检索,复杂问答准确率飙升30%
大数据·人工智能·openai
计算机毕设定制辅导-无忧学长13 小时前
TDengine 权限管理与安全配置实战(二)
大数据·安全·tdengine
2401_8979300613 小时前
Kibana 连接 Elasticsearch(8.11.3)教程
大数据·elasticsearch·jenkins
计算机毕设定制辅导-无忧学长13 小时前
TDengine 快速上手:安装部署与基础 SQL 实践(一)
大数据·sql·tdengine
塔能物联运维13 小时前
塔能科技:精准节能,擎动工厂可持续发展巨轮
大数据·运维
今天我又学废了14 小时前
Spark,HDFS概述
大数据·hdfs·spark
麓殇⊙14 小时前
使用注解开发springMVC
数据仓库·hive·hadoop
青云交15 小时前
Java 大视界 -- 基于 Java 的大数据机器学习模型在图像识别中的迁移学习与模型优化(173)
大数据·迁移学习·图像识别·模型优化·deeplearning4j·机器学习模型·java 大数据