查看Hive表信息及占用空间的方法

一、Hive下查看数据表信息的方法

方法1:查看表的字段信息

desc table_name;

方法2:查看表的字段信息及元数据存储路径

desc extended table_name;

方法3:查看表的字段信息及元数据存储路径

desc formatted table_name;

方法4:查看建表语句及其他详细信息的方法

show create table table_name;

备注:查看表元数据存储路径时,推荐方法3,信息比较清晰。

二、查看表容量大小

方法1:查看一个hive表文件总大小时(单位为Byte),可以通过一行脚本快速实现,其命令如下:

查看普通表的容量

powershell 复制代码
[pgxl@master ~]$ hadoop fs -ls /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df|awk -F ' ' '{print $5}'|awk '{a+=$1}END{print a}'
[pgxl@master ~]$ hadoop fs -ls /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df|awk -F ' ' '{print $5}'|awk '{a+=$1}END{print a/(1024*1024*1024)}'

这样可以省去自己相加,下面命令是列出该表的详细文件列表

powershell 复制代码
[pgxl@master ~]$ hadoop fs -ls /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df

统计文件详细数目

powershell 复制代码
[pgxl@master ~]$ hadoop fs -ls /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df|wc -l

查看分区表的容量

powershell 复制代码
[pgxl@master ~]$ hadoop fs -ls /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df/yyyymm=202301|awk -F ' ' '{print $5}'|awk '{a+=$1}END {print a/(1024*1024*1024)}'

这样可以省去自己相加,下面命令是列出该表的详细文件列表

powershell 复制代码
[pgxl@master ~]$ hadoop fs -ls /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df/yyyymm=202301

方法2:查看该表总容量大小,单位为G

powershell 复制代码
[pgxl@master ~]$ hadoop fs -du /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df|awk ' { SUM += $1 } END { print SUM/(1024*1024*1024) }'

查看hive库的大小

powershell 复制代码
 hadoop fs -count -q -h /data/hive/warehouse/wedw_dw.db
相关推荐
Ray.199813 分钟前
Flink 的核心特点和概念
大数据·数据仓库·数据分析·flink
lisacumt14 分钟前
【kerberos】使用keytab文件,kerberos认证工具类 scala版本
hadoop·scala
MasterNeverDown2 小时前
WPF 使用iconfont
hadoop·ui·wpf
三生暮雨渡瀟瀟6 小时前
解决HiveSQL查询出现Java.lang.OutMemoryError.java heap space
hive
B站计算机毕业设计超人15 小时前
计算机毕业设计hadoop+spark股票基金推荐系统 股票基金预测系统 股票基金可视化系统 股票基金数据分析 股票基金大数据 股票基金爬虫
大数据·hadoop·python·spark·课程设计·数据可视化·推荐算法
viperrrrrrrrrr71 天前
大数据学习(36)- Hive和YARN
大数据·hive·学习
重生之Java再爱我一次1 天前
Hive部署
数据仓库·hive·hadoop
想做富婆1 天前
大数据,Hadoop,HDFS的简单介绍
大数据·hadoop·分布式
WorkAgent1 天前
windows下本地部署安装hadoop+scala+spark-【不需要虚拟机】
hadoop·spark·scala