把本地文件上传到HDFS上操作步骤

因为条件有限,我这里以虚拟机centos为例

实验条件:我在虚拟机上创建了三台节点,部署了hadoop,把笔记本上的数据上传到hdfs中

  1. 数据打包上传到虚拟机节点上
    采用的是rz命令,可以帮我们上传数据
    没有的话可以使用命令安装yum install lrzsz
bash 复制代码
[root@node04 0007]# rz
  1. 解压
    没有解压命令可以安装yum install unzip
bash 复制代码
[root@node04 data]# unzip 0007.zip
  1. 启动hads服务
bash 复制代码
[root@node04 data]# start-dfs.sh
  1. 查看hdfs下的目录结构
bash 复制代码
[root@node04 data]# hadoop dfs -ls /
  1. 在hdfs上为我们的数据创建目录
bash 复制代码
hadoop dfs -mkdir /data
  1. 把数据放到hdfs中
bash 复制代码
hadoop dfs -put /opt/data/0007/ /data/
  1. 查看结果
    存放成功
相关推荐
chde2Wang1 小时前
Flume启动报错
大数据·flume
安达发6 小时前
安达发|高效智能塑料切割数控系统 - 全自动化软件解决方案
大数据·运维·人工智能·自动化·aps排产软件·智能优化排产软件
火龙谷8 小时前
【hadoop】案例:MapReduce批量写入HBase
hadoop·hbase·mapreduce
凉白开3389 小时前
Spark-streaming
大数据·分布式·spark
杜子腾dd9 小时前
7.Excel:单元格格式
大数据·自动化·excel
涤生大数据11 小时前
HBase协处理器深度解析:原理、实现与最佳实践
大数据·数据库·hbase
2401_8516217211 小时前
【展位预告】正也科技将携营销精细化管理解决方案出席中睿营销论坛
大数据
IT成长日记12 小时前
【Hive入门】Hive函数:内置函数与UDF开发
数据仓库·hive·hadoop·udf
lix的小鱼12 小时前
如何搭建spark yarn模式的集群
大数据·分布式·spark
方二华12 小时前
Spark GraphX 机器学习:图计算
大数据·机器学习·spark