HIVE表操作

Hive有四种表:内部表,外部表,分区表,分桶表。分别对应不同的需求。又可将他们分为两组内部表和外部表、分区表和分桶表,其中分区表在企业中用的最多,可以说百分之八九十的表都是分区表。

创建表

方式1:基本创建

sql 复制代码
-- EXTERNAL 代表外部表 
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name 
[(col_name data_type [COMMENT col_comment], ...)] 
[COMMENT table_comment] :----重要
-- 分区表设置 分区的字段和类型
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] 
-- 桶表设置 按照什么字段进行分桶
[CLUSTERED BY (col_name, col_name, ...) 
-- 桶内的文件 是按照 什么字段排序   分多少个桶
[SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS] 
-- 分隔符 + 序列化反序列化
[ROW FORMAT row_format] 
-- 表存储格式格式
[STORED AS file_format] 
-- 表所对应的hdfs目录
[LOCATION hdfs_path]
[TBLPROPERTIES (property_name=property_value, ...)]

方式2:create table as select建表

该语法允许用户利用select查询语句的结果,直接建表,表的结构和查询语句的结构保持一致,并且包含查询语句里的所有内容。

|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| CREATE TABLE [IF NOT EXISTS] table_name [AS select_statement] [COMMENT table_comment] [ROW FORMAT row_format] [STORED AS file_format] [LOCATION hdfs_path] [TBLPROPERTIES (property_name=property_value, ...)] |

as:后跟查询语句,根据查询结果创建表。

方式3:create table like建表

该语法允许用户复制一张已经存在的表的结构,但是和上面的CTAS语法不同,该语法创建出来的表中不包含数据。

|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| CREATE TABLE [IF NOT EXISTS] table_name LIKE table_name [COMMENT table_comment] [ROW FORMAT row_format] [STORED AS file_format] [LOCATION hdfs_path] [TBLPROPERTIES (property_name=property_value, ...)] |

like允许用户复制现有的表结构,但是不复制数据。

加载数据

sql 复制代码
----本地加载数据(hdfs 不需要加local)
load data local inpath "/home/hewwen8888/data/ch4_emp.txt"  overwrite into table ds_hive.ch4_emp;
sql 复制代码
-- hdfs上加载数据,不用local
load data  inpath "/user/hewwen8888/data/ch4_emp.txt"  overwrite into table ds_hive.ch4_emp_l;

区别:磁盘上的数据复制到hdfs上,hdfs的数据,移动到对应的表路径下的

相关推荐
字节跳动数据平台6 小时前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术8 小时前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康9 小时前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康1 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天1 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康3 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
武子康4 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP5 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库5 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
AI周红伟5 天前
周红伟:智能体全栈构建实操:OpenClaw部署+Agent Skills+Seedance+RAG从入门到实战
大数据·人工智能·大模型·智能体