大数据笔记之 Hadoop 常用 Shell 命令(一)

文章目录

  • 前言
  • 一、HDFS上的操作
    • [1.1 查看文件或文件夹](#1.1 查看文件或文件夹)
    • [1.2 修改文件或目录权限](#1.2 修改文件或目录权限)
    • [1.3 创建或删除文件夹](#1.3 创建或删除文件夹)
    • [1.4 移动或创建文件](#1.4 移动或创建文件)
    • [1.5 信息统计](#1.5 信息统计)
    • [1.6 设置 hdfs 中文件的副本数量](#1.6 设置 hdfs 中文件的副本数量)
  • 二、在本地上传或下载的操作
    • [2.1 从本地上传文件到HDFS](#2.1 从本地上传文件到HDFS)
    • [2.2 从HDFS下载文件到本地](#2.2 从HDFS下载文件到本地)
  • 总结

前言

前无言


一、HDFS上的操作

操作HDFS上的shell命令,与Linux命令使用方法类似

1.1 查看文件或文件夹

powershell 复制代码
# -ls 显示目录信息
hdfs dfs -ls /

# 显示文件内容
hdfs dfs -cat /tmp/k.txt

# 显示文件末尾 1kb 的数据
hdfs dfs -tail /tmp/x.txt

1.2 修改文件或目录权限

powershell 复制代码
# 修改文件或目录权限
hadoop fs -chmod 777 /a.txt

# 修改文件或目录所有者和所属的组
hadoop fs -chown hadoop:hadoop /a

# 修改文件或目录所属组
hadoop fs -chgrp hadoop /a.txt

1.3 创建或删除文件夹

powershell 复制代码
# 创建文件夹
hdfs dfs -mkdir /a

# 递归创建文件夹
hdfs dfs -mkdir -p /a/b/c

# 删除文件
hdfs dfs -rm /a/b/k.txt

# 递归删除目录及目录里的内容(慎用)
hdfs dfs -rm -r /a

1.4 移动或创建文件

powershell 复制代码
# 移动文件
hdfs dfs -mv /a/k.txt /b

# 创建文件
hdfs dfs -touch /m/w.txt

1.5 信息统计

powershell 复制代码
# 统计文件夹的大小信息
hdfs dfs -du -s -h /a
hdfs dfs -du -h /a

1.6 设置 hdfs 中文件的副本数量

powershell 复制代码
hdfs dfs -setrep 5 /a/k.txt

二、在本地上传或下载的操作

2.1 从本地上传文件到HDFS

powershell 复制代码
 # 从本地剪切粘贴到HDFS
hdfs dfs -moveFromLocal tmp.txt /tmp

# 从本地文件系统中拷贝文件到HDFS上去
hdfs dfs -copyFromLocal tmp.txt /tmp

# 从本地文件系统中拷贝文件到HDFS上去(常用)
 hdfs dfs -put tmp.txt /tmp
 
 # 追加一个文件到已经存在的文件末尾
hdfs dfs -appendToFile tmp.txt /tmp/b.txt

2.2 从HDFS下载文件到本地

powershell 复制代码
# 从HDFS拷贝到本地
hdfs dfs -copyToLocal /tmp/b.txt /home

# 等同于copyToLocal (常用)
hdfs dfs -get /tmp/b.txt /home

总结

没了。。。

相关推荐
代码匠心21 小时前
从零开始学Flink:Flink SQL四大Join解析
大数据·flink·flink sql·大数据处理
武子康2 天前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
SelectDB3 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康3 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
IvanCodes3 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康4 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
字节跳动数据平台5 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康5 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台6 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术6 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark