【Hive】HQL Map 『CRUD | 相关函数』

文章目录

  • [1. Map 增删改查](#1. Map 增删改查)
    • [1.1 声明 Map 数据类型](#1.1 声明 Map 数据类型)
    • [1.2 增](#1.2 增)
    • [1.3 删](#1.3 删)
    • [1.4 改](#1.4 改)
    • [1.5 查](#1.5 查)
  • [2. Map 相关函数](#2. Map 相关函数)
    • [2.1 单个Map](#2.1 单个Map)
  • [3. Map 与 String](#3. Map 与 String)
    • [3.1 Map 转 string](#3.1 Map 转 string)
    • [3.2 string 转 Map](#3.2 string 转 Map)

1. Map 增删改查

1.1 声明 Map 数据类型

  1. 语法:map<基本数据类型, 基本数据类型> 注意是<>,不是()
  2. 例子:
    1. 创建表时:

      复制代码
      create table temp_db.map_test(
      	id int comment "源数据主键id",
      	smap map<string,string> comment "string型map",
      	imap map<string,int> comment "int型map"
      );
    2. 字段填充时:cast(null as map<string, string>) as XXX

1.2 增

复制代码
insert into temp_db.map_test(id,smap,imap) 
select 12,map('姓名','张三') as pp,map('年龄',23,'性别',1) as dd;

1.3 删

没有删除,只能覆盖

1.4 改

复制代码
array_name['key'] = 'xxxx'

1.5 查

复制代码
select array_name['key'] ;

注意:数组越界会报错。

2. Map 相关函数

2.1 单个Map

  1. map_keys(map_name):获取该map的所有key,结果是一个Array。
  2. map_keys(map_name):获取该map的所有value,结果是一个Array。
  3. size(map_name):获取该map的键值对个数。
  4. 判断map中是否包含某个key值:array_contains(map_keys(map_name), 'key') 或者 map_name["key"] is not null

3. Map 与 String

3.1 Map 转 string

复制代码
select 
    ...,
    concat_ws(',', collect_list(concat_ws(':', k, v) ) )
from test_map_1
lateral view outer explode(map1) kv as k,v

3.2 string 转 Map

复制代码
select str_to_map("name:zhangsan,age:25");

注意:键值对都没有引号

相关推荐
※尘1 小时前
Hive 存储格式深度解析:从 TextFile 到 ORC,如何选对数据存储方案?
数据仓库·hive·hadoop
2301_793069827 小时前
【术语解释】网络安全((SAST, DAST, SCA, IAST),Hadoop, Spark, Hive 的关系
hive·hadoop·网络安全·spark
viperrrrrrrrrr71 天前
大数据学习(137)-大数据组件运行时角色
大数据·hive·学习·flink·spark
安审若无1 天前
Hive的索引使用如何优化?
数据仓库·hive·hadoop
zh_199952 天前
Hive面试题汇总
大数据·hive·hadoop·架构·面试题
£菜鸟也有梦3 天前
Flume进阶之路:从基础到高阶的飞跃
大数据·hive·hadoop·flume
Kookoos3 天前
ABP vNext + Hive 集成:多租户大数据 SQL 查询与报表分析
大数据·hive·sql·.net·abp vnext
viperrrrrrrrrr74 天前
大数据学习(132)-HIve数据分析
大数据·hive·学习
社恐码农4 天前
Hive开窗函数的进阶SQL案例
hive·hadoop·sql
冬至喵喵5 天前
【hive】函数集锦:窗口函数、列转行、日期函数
大数据·数据仓库·hive·hadoop