【Hive】HQL Map 『CRUD | 相关函数』

文章目录

  • [1. Map 增删改查](#1. Map 增删改查)
    • [1.1 声明 Map 数据类型](#1.1 声明 Map 数据类型)
    • [1.2 增](#1.2 增)
    • [1.3 删](#1.3 删)
    • [1.4 改](#1.4 改)
    • [1.5 查](#1.5 查)
  • [2. Map 相关函数](#2. Map 相关函数)
    • [2.1 单个Map](#2.1 单个Map)
  • [3. Map 与 String](#3. Map 与 String)
    • [3.1 Map 转 string](#3.1 Map 转 string)
    • [3.2 string 转 Map](#3.2 string 转 Map)

1. Map 增删改查

1.1 声明 Map 数据类型

  1. 语法:map<基本数据类型, 基本数据类型> 注意是<>,不是()
  2. 例子:
    1. 创建表时:

      复制代码
      create table temp_db.map_test(
      	id int comment "源数据主键id",
      	smap map<string,string> comment "string型map",
      	imap map<string,int> comment "int型map"
      );
    2. 字段填充时:cast(null as map<string, string>) as XXX

1.2 增

复制代码
insert into temp_db.map_test(id,smap,imap) 
select 12,map('姓名','张三') as pp,map('年龄',23,'性别',1) as dd;

1.3 删

没有删除,只能覆盖

1.4 改

复制代码
array_name['key'] = 'xxxx'

1.5 查

复制代码
select array_name['key'] ;

注意:数组越界会报错。

2. Map 相关函数

2.1 单个Map

  1. map_keys(map_name):获取该map的所有key,结果是一个Array。
  2. map_keys(map_name):获取该map的所有value,结果是一个Array。
  3. size(map_name):获取该map的键值对个数。
  4. 判断map中是否包含某个key值:array_contains(map_keys(map_name), 'key') 或者 map_name["key"] is not null

3. Map 与 String

3.1 Map 转 string

复制代码
select 
    ...,
    concat_ws(',', collect_list(concat_ws(':', k, v) ) )
from test_map_1
lateral view outer explode(map1) kv as k,v

3.2 string 转 Map

复制代码
select str_to_map("name:zhangsan,age:25");

注意:键值对都没有引号

相关推荐
无级程序员3 天前
hive2服务启动报错:/tmp/hive on HDFS should be writable(不是chmod 777能解决的)
hive·hadoop·hdfs
rui锐rui3 天前
大数据学习2:HIve
大数据·hive·学习
凌辰揽月3 天前
Servlet学习
hive·学习·servlet
weixin_307779134 天前
Hive集群之间迁移的Linux Shell脚本
大数据·linux·hive·bash·迁移学习
王小王-1234 天前
基于Hadoop的公共自行车数据分布式存储和计算平台的设计与实现
大数据·hive·hadoop·分布式·hadoop公共自行车·共享单车大数据分析·hadoop共享单车
桂成林4 天前
Hive UDF 开发实战:MD5 哈希函数实现
hive·hadoop·哈希算法
王小王-1235 天前
基于Hadoop的餐饮大数据分析系统的设计与实现
hive·hadoop·flask·sqoop·pyecharts·hadoop餐饮大数据分析·hadoop美食数据分析
張萠飛15 天前
hive集群优化和治理常见的问题答案
数据仓库·hive·hadoop
fpcc17 天前
c++26新功能—hive容器
c++·hive
liuze40819 天前
在VMware虚拟机集群中,完成Hive的安装部署
数据仓库·hive·hadoop