Hadoop之HDFS使用命令(常用)

本篇仅记载部分常用命令

若无所需命令可查看官方网站Apache Hadoop 3.3.6 -- Overview

:一切命令仅在启动HDFS集群后执行,否则会报错

注:仅在hadoop用户下操作

在Linux中超级用户是:root

但HDFS的超级用户是:启动namenode的用户,及本篇文 章的hadoop用户

如用root用户执行hadoop命令会报错

HDFS操作命令,Hadoop提供了两套

hadoop命令(老版)

bash 复制代码
hadoop fs [generic options]

hdfs命令 (新版)

bash 复制代码
hdfs dfs [generic options]

协议头区分

Linux

bash 复制代码
file:///

HDFS

bash 复制代码
hdfs://namenode:port/

例:

bash 复制代码
Linux:file:///usr/local/hello.txt
HDFS: hdfs://node1:8020/usr/local/hello.txt

# 注:协议头file:///或hdfs://node1:8020/可以省略
#     除非明确要写或者不写有BUG,否则一般不用写

HDFS集群启停命令

一键启停

bash 复制代码
# 一键启动HDFS集群
start-dfs.sh

# 一键停止HDFS集群
stop-dfs.sh

单进程启停

注:仅控制所在机器的进程的启停

bash 复制代码
hadoop-daemon.sh (start|status|stop) (namenode|secondarynamenode|datanode)

hdfs --daemon (start|status|stop) (namenode|secondarynamenode|datanode)

# start 启动    status 查看状态   stop 停止

例:jps命令是查看当前启动的集群,目前是都启动了

利用hadoop-daemon.sh stop datanode命令将datanode进程给停止了

注:warning是表明hadoop-daemon.sh这个命令过时了,推荐用hdfs --daemon

但不影响使用

创建文件夹

bash 复制代码
hadoop fs -mkdir [-p] <path> ...

hdfs dfs -mkdir [-p] <path> ...

# path 为待创建的目录
# -p 沿着路经创建父目录

例:创建/huan/haha文件夹

注:hadoop fs -ls / 查看hadhdfs的hdfs根目录下的内容

hadoop fs -ls /huan 查看hadhdfs的hdfs的huan目录下的内容

查看指定目录下内容

bash 复制代码
hadoop fs -ls [-h] [-R] [<path> ...]

hdfs dfs -ls [-h] [-R] [<path> ...]

# path 指定目录路径
# -h 人性化显示文件size
# -R 递归查看指定目录及其子目录

上传文件到HDFS指定目录下(从Linux--->HDFS)

bash 复制代码
hadoop fs -put [-f] [-p] <localsrc> ... <dst>

hdfs dfs -put [-f] [-p] <localsrc> ... <dst>

# -f 覆盖目标文件(已存在的)
# -p 保留访问和修改时间,所有权和权限
# localsrc 本地文件系统(客户端所在机器)
# dst 目标文件系统(HDFS)

例:将Liunx目录下的test.txt上传到hdfs根目录下

查看HDFS文件内容

bash 复制代码
hadoop fs -cat <src> ...

hdfs dfs -cat <src> ...

读取大文件可以使用管道符配合more

bash 复制代码
hadoop fs -cat <src> | more

hdfs dfs -cat <src> | more

# 按空格可翻页查看

例:查看text.txt文件中的内容

下载HDFS文件(从HDFS--->Linux)

bash 复制代码
hadoop fs -get [-f] [-p] <src> ... <localdst>

hdfs dfs -get [-f] [-p] <src> ... <localdst>

# localdst 必修是目录
# -f 覆盖目标文件 (已存在)
# -p 保留访问和修改时间,所有权和权限

例:将HDFS的huan下载到Linux

拷贝HDFS文件(HDFS--->HDFS)

注:可将复制的文件改名

bash 复制代码
hadoop fs -cp [-f] <src> ... <dst>

hdfs dfs -cp [-f] <src> ... <dst>

# -f 覆盖目标文件(已存在)

例:将HDFS下的test.txt文件复制到HDFS下的huan目录下

例:将test,txt复制到huan目录下改名为ad.txt

追加数据到HDFS文件夹中(Linux-->HDFS)

bash 复制代码
hadoop fs -appendToFile <localsrc> ... <dst>

hdfs dfs -appendToFile <localsrc> ... <dst>

# 将所有给定本地文件的内容追加到给定dst文件
# dst如果文件不存在,将创建该文件

例:创建app.txt文件,将其添加到HDFS的test.txt文件中

HDFS数据移动操作

bash 复制代码
hadoop fs -mv <src> ... <dst>

hdfs dfs -mv <src> ... <dst>

# 移动文件到指定文件夹下,可重命名文件名称

例:将HDFS下的test.txt移动到HDFS下的huan目录下并改名为qwe.txt

HDFS数据删除操作

bash 复制代码
hadoop fs -rm -r [-skipTrash] URI [URI ...]

hdfs dfs -rm -r [-skipTrash] URI [URI ...]

# 删除指定路径的文件或文件夹
# -skipTrash 跳过回收站,直接删除

注: 1440代表在回收站的时间为一天,120表示俩小时检查一次回收站,将到时间的清除

回收站在哪个机器配则在哪个机器生效

例:将huan目录下的qwe.txt删除

HDFS中修改所属用户和组

bash 复制代码
hadoop fs -chown [-R] root:root /xxx.txt

hdfs dfs -chown [-R] root:root /xxx.txt

例:将huan目录下的ad.txt改为root用户

HDFS修改权限

bash 复制代码
hadoop fs -chmod [-R] 777 /xxx.txt

hdfs dfs -chmod [-R] 777 /xxx.txt

例:将huan目录下的text.txt文件权限修改为777

HDFS WEB UI权限修改

相关推荐
成长之路5141 小时前
【面板数据】中国与世界各国新能源汽车进出口数据-分类别与不分类别(2017-2024年)
大数据·汽车
说私域1 小时前
传统企业数字化转型:以定制开发开源 AI 智能名片 S2B2C 商城小程序源码为核心的销售环节突破
大数据·人工智能·开源
G皮T6 小时前
【Elasticsearch】正排索引、倒排索引(含实战案例)
大数据·elasticsearch·搜索引擎·kibana·倒排索引·搜索·正排索引
小葛呀8 小时前
互联网大数据求职面试:从Zookeeper到数据挖掘的技术探讨
大数据·redis·zookeeper·面试·互联网·数据采集·技术栈
陌殇殇8 小时前
Hadoop 002 — HDFS常用命令及SpringBoot整合操作
hadoop·spring boot·hdfs
T06205149 小时前
【面板数据】A股上市公司注册地所在地数据集(1991-2023年)
大数据
zh_1999510 小时前
Spark面试精讲(上)
java·大数据·数据仓库·python·spark·数据库开发·数据库架构
淡酒交魂11 小时前
「Flink」Flink项目搭建方法介绍
大数据·数据挖掘·数据分析
袋鼠云数栈11 小时前
当空间与数据联动,会展中心如何打造智慧运营新范式?
大数据·人工智能·信息可视化
Python当打之年11 小时前
【62 Pandas+Pyecharts | 智联招聘大数据岗位数据分析可视化】
大数据·python·数据分析·pandas·数据可视化