Hadoop3教程(三):HDFS文件系统常用命令一览

文章目录

  • 语法格式
  • [(44) HDFS的文件系统命令(开发重点)](#(44) HDFS的文件系统命令(开发重点))
  • 参考文献

语法格式

hdfs命令的完整形式:

shell 复制代码
hdfs [options] subcommand [subcommand options]

其中subcommand有三种形式:

  • admin commands
  • client commands:如本节重点要讲的dfs
  • daemon commands

(44) HDFS的文件系统命令(开发重点)

dfs(文件系统命令),这个是HDFS里,日常使用最为频繁的一种命令,用来在HDFS的文件系统上运行各种文件系统命令,如查看文件、删除文件等。

基本语法:

hadoop fs 具体命令
hdfs dfs 具体命令

这俩基本是一样的。

前一个命令据说是可以用于其他文件系统,不止是hdfs文件系统内。

后一个命令是专门针对hdfs分布式文件系统。推荐使用这个吧

据说原先还有个hadoop dfs,目前已经废弃不用了,被hdfs dfs所取代。

在shell里打hdfs dfs,可以查看其帮助命令(可以看到展示的是hadoop fs的):

Usage: hadoop fs [generic options]
        [-appendToFile <localsrc> ... <dst>]
        [-cat [-ignoreCrc] <src> ...]
        [-checksum <src> ...]
        [-chgrp [-R] GROUP PATH...]
        [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
        [-chown [-R] [OWNER][:[GROUP]] PATH...]
        [-copyFromLocal [-f] [-p] [-l] [-d] [-t <thread count>] <localsrc> ... <dst>]
        [-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
        [-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] [-e] <path> ...]
        [-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>]
        [-createSnapshot <snapshotDir> [<snapshotName>]]
        [-deleteSnapshot <snapshotDir> <snapshotName>]
        [-df [-h] [<path> ...]]
        [-du [-s] [-h] [-v] [-x] <path> ...]
        [-expunge]
        [-find <path> ... <expression> ...]
        [-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
        [-getfacl [-R] <path>]
        [-getfattr [-R] {-n name | -d} [-e en] <path>]
        [-getmerge [-nl] [-skip-empty-file] <src> <localdst>]
        [-help [cmd ...]]
        [-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [-e] [<path> ...]]
        [-mkdir [-p] <path> ...]
        [-moveFromLocal <localsrc> ... <dst>]
        [-moveToLocal <src> <localdst>]
        [-mv <src> ... <dst>]
        [-put [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
        [-renameSnapshot <snapshotDir> <oldName> <newName>]
        [-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...]
        [-rmdir [--ignore-fail-on-non-empty] <dir> ...]
        [-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]]
        [-setfattr {-n name [-v value] | -x name} <path>]
        [-setrep [-R] [-w] <rep> <path> ...]
        [-stat [format] <path> ...]
        [-tail [-f] <file>]
        [-test -[defsz] <path>]
        [-text [-ignoreCrc] <src> ...]
        [-touch [-a] [-m] [-t TIMESTAMP ] [-c] <path> ...]
        [-touchz <path> ...]
        [-truncate [-w] <length> <path> ...]
        [-usage [cmd ...]]

Generic options supported are:
-conf <configuration file>        specify an application configuration file
-D <property=value>               define a value for a given property
-fs <file:///|hdfs://namenode:port> specify default filesystem URL to use, overrides 'fs.defaultFS' property from configurations.
-jt <local|resourcemanager:port>  specify a ResourceManager
-files <file1,...>                specify a comma-separated list of files to be copied to the map reduce cluster
-libjars <jar1,...>               specify a comma-separated list of jar files to be included in the classpath
-archives <archive1,...>          specify a comma-separated list of archives to be unarchived on the compute machines

The general command line syntax is:
command [genericOptions] [commandOptions]

下面展示一下常用的:

shell 复制代码
hdfs dfs -ls <path>	# 常规的ls展示目录信息
hdfs dfs -rm		# 删除文件
hdfs dfs -rmdir		# 删除目录
hdfs dfs -mkdir			# 创建路径
hdfs dfs -cp src> ... <dst>	# 将前面路径的文件拷贝到后面路径
hdfs dfs -mv			# 功能同上,但是是剪切式移动文件
hdfs dfs -count <path>	# 依次展示路径下的目录数、文件数、占用空间大小、路径
hdfs dfs -stat
hdfs dfs -tail		# 可以用于采样展示文本内容,显示一个文件的末尾1KB的数据
hdfs dfs -cat <src>		# 显示文件内容
hdfs dfs -touch		# 路径处生成空白文件,若文件已存在,则修改文件的访问时间
hdfs dfs -touchz	# 路径处生成空白文件,若文件存在,则什么都不发生,不会更改现有文件的时间戳
hdfs dfs -du <path>	# 打印路径下各子目录的空间占用情况,第一列表示实际文件大小,第二列表示实际文件大小 * 备份数
hdfs dfs -du -s <path>	# 直接加和,只显示最终的
hdfs dfs -df <path>		# 显示目录所在磁盘的整体空间占用,包含所有副本
hdfs dfs -setrep 副本数 filepath # 设置HDFS中文件的副本数量。如果设置的副本数超过了节点数,则实际只能有多少节点建多少副本
chgrp、-chmod、-chown # 跟Linux文件系统中的用法一样,修改文件所属权限


-getmerge # 合并下载

hdfs dfs 
# 上传下载类指令

hdfs dfs -appendToFile <localsrc>... <dst>	# 将所有给定的本地文件内容,全部追加到指定的hdfs文件末尾;若hdfs文件不存在则创建;若localstr是-,那么将会从终端stdin读取输入;
hdfs dfs -moveFromLocal <localsrc> ... <dst> # 从本地某个目录剪切到HDFS;
hdfs dfs -copyFromLocal <localsrc> ... <dst> # 从本地拷贝到HDFS
hdfs dfs -put <本地路径> <hdfs路径>	# 本地文件拷贝到hdfs中,作用等同于copyFromLocal,但生产中更常用-put

hdfs dfs -get <hdfs路径> <本地路径>	# hdfs文件下载到本地,生产中更习惯用get,而不是copyToLocal
hdfs dfs -copyToLocal <src> ... <localdst> # 从HDFS拷贝到本地

如果是想看单独一个命令的帮助信息,可以使用以下指令,如:

shell 复制代码
hdfs dfs -help mv

参考文献

  1. 【尚硅谷大数据Hadoop教程,hadoop3.x搭建到集群调优,百万播放】
  2. hadoop dfs、hadoop fs和hdfs dfs的区别
  3. 周末杂谈:关于Hadoop集群中,其创建文件的touch命令和touchz命令有什么区别?以及在什么样的情况下创建文件使用不同的命令。
  4. Hadoop官方文档-文件系统shell页
  5. HDFS常用命令总结
相关推荐
lovelin+v1750304096632 分钟前
从零到一:构建高效、安全的电商数据API接口
大数据·人工智能·爬虫·python·数据分析
T06205145 小时前
【复刻】数字化转型是否赋能企业新质生产力发展?(2015-2023年)
大数据
qiquandongkh6 小时前
期权懂|深度虚值期权合约有哪些特性?
大数据·人工智能·区块链
lovelin+v175030409666 小时前
2024年API接口发展趋势:智能化、自动化引领电商数据流通
大数据·人工智能·爬虫·数据分析·api
B站计算机毕业设计超人7 小时前
计算机毕业设计Hadoop+Spark美团美食推荐系统 美团餐厅推荐系统 美团推荐系统 美食价格预测 美团爬虫 美食数据分析 美食可视化大屏
大数据·hadoop·python·机器学习·课程设计·数据可视化·推荐算法
花菜回锅肉7 小时前
【数据仓库】hive on Tez配置
数据仓库·hive·hadoop
雪芽蓝域zzs7 小时前
JavaWeb开发(三)Servlet技术-手动、自动创建Servlet
hive·hadoop·servlet
BabyFish137 小时前
Hive分区再分桶表
数据仓库·hive·hadoop·分区·分桶
轻风细雨8 小时前
hive-sql 计算每年在校生人数
hive·hadoop·sql
火眼99888 小时前
一篇文章了解 Kafka
大数据·分布式·kafka