查看Hive表信息及占用空间的方法

一、Hive下查看数据表信息的方法

方法1:查看表的字段信息

desc table_name;

方法2:查看表的字段信息及元数据存储路径

desc extended table_name;

方法3:查看表的字段信息及元数据存储路径

desc formatted table_name;

方法4:查看建表语句及其他详细信息的方法

show create table table_name;

备注:查看表元数据存储路径时,推荐方法3,信息比较清晰。

二、查看表容量大小

方法1:查看一个hive表文件总大小时(单位为Byte),可以通过一行脚本快速实现,其命令如下:

查看普通表的容量

powershell 复制代码
[pgxl@master ~]$ hadoop fs -ls /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df|awk -F ' ' '{print $5}'|awk '{a+=$1}END{print a}'
[pgxl@master ~]$ hadoop fs -ls /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df|awk -F ' ' '{print $5}'|awk '{a+=$1}END{print a/(1024*1024*1024)}'

这样可以省去自己相加,下面命令是列出该表的详细文件列表

powershell 复制代码
[pgxl@master ~]$ hadoop fs -ls /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df

统计文件详细数目

powershell 复制代码
[pgxl@master ~]$ hadoop fs -ls /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df|wc -l

查看分区表的容量

powershell 复制代码
[pgxl@master ~]$ hadoop fs -ls /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df/yyyymm=202301|awk -F ' ' '{print $5}'|awk '{a+=$1}END {print a/(1024*1024*1024)}'

这样可以省去自己相加,下面命令是列出该表的详细文件列表

powershell 复制代码
[pgxl@master ~]$ hadoop fs -ls /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df/yyyymm=202301

方法2:查看该表总容量大小,单位为G

powershell 复制代码
[pgxl@master ~]$ hadoop fs -du /home/pgxl/opt/hive-1.2.1/hive-warehouse/tmp.db/wuxn_test_df|awk ' { SUM += $1 } END { print SUM/(1024*1024*1024) }'

查看hive库的大小

powershell 复制代码
 hadoop fs -count -q -h /data/hive/warehouse/wedw_dw.db
相关推荐
CHICX12294 小时前
【Hadoop】改一下core-site.xml和hdfs-site.xml配置就可以访问Web UI
xml·大数据·hadoop
极客先躯12 小时前
Hadoop krb5.conf 配置详解
大数据·hadoop·分布式·kerberos·krb5.conf·认证系统
BD_Marathon18 小时前
设置hive本地模式
数据仓库·hive·hadoop
Data 31718 小时前
Hive数仓操作(十一)
大数据·数据库·数据仓库·hive·hadoop
Data 31720 小时前
Hive数仓操作(九)
大数据·数据仓库·hive·hadoop
晚睡早起₍˄·͈༝·͈˄*₎◞ ̑̑20 小时前
JavaWeb(二)
java·数据仓库·hive·hadoop·maven
朗朗乾坤.py1 天前
Hadoop HDFS命令操作实例
hadoop·hdfs·npm
杰哥在此1 天前
Python知识点:如何使用Hadoop与Python进行大数据处理
开发语言·hadoop·python·面试·编程
Data 3171 天前
Hive数仓操作(三)
大数据·数据库·数据仓库·hive·hadoop