hive行转列函数stack(int n, v_1, v_2, ..., v_k)

stack()函数时,参数中的键值对应按照一对列名和列值进行排使用列

stack(int n, v_1, v_2, ..., v_k)

功能:把k列数据转换成n行,k/n列,其中n必须是正整数,后面的v_1到v_k必须是元素,不能是列名。(不常用)

sql 复制代码
假设我们有一个名为employees的表,包含以下列:id, name, department, salary。

CREATE TABLE employees (
  id INT,
  name STRING,
  department STRING,
  salary DOUBLE
);

INSERT INTO employees VALUES
  (1, 'John', 'HR', 5000),
  (2, 'Jane', 'Finance', 6000),
  (3, 'Mike', 'IT', 5500);
​
现在我们使用stack()函数将每个员工的信息转换为多列:

SELECT col_index, col_value
FROM (
  SELECT stack(4,
    'id', id,
    'name', name,
    'department', department,
    'salary', salary
  ) AS (col_index, col_value)
  FROM employees
) stacked_data;
​
在这个例子中,我们使用stack()函数将每个键值对转换为多行,其中参数4指定了输出结果的行数(4行)。每个键值对由一个列名和列值组成。

然后,我们将内部查询的结果作为表别名stacked_data的数据源,并选择col_index和col_value两个列作为最终输出结果。

输出结果如下所示:

col_index	col_value
id	1
name	John
department	HR
salary	5000.0
id	2
name	Jane
department	Finance
salary	6000.0
id	3
name	Mike
department	IT
salary	5500.0
每一行表示一个转换后的记录,其中col_index列表示每个记录的列名(键),col_value列表示每个记录的列值。

参考文章

hive表生成函数explode、stack、lateral view和json_tuple、parse_url_tuple示例_hive stack-CSDN博客

相关推荐
是阿威啊11 分钟前
【第二站】本地hadoop集群配置yarn模式
大数据·linux·hadoop·yarn
好大哥呀5 小时前
Hadoop yarn
大数据·hadoop·分布式
红队it6 小时前
【数据分析】基于Spark链家网租房数据分析可视化大屏(完整系统源码+数据库+开发笔记+详细部署教程+虚拟机分布式启动教程)✅
java·数据库·hadoop·分布式·python·数据分析·spark
本旺1 天前
【数据开发离谱场景记录】Hive + ES 复杂查询场景处理
hive·hadoop·elasticsearch
莫叫石榴姐1 天前
Doris为2.1版本,但json_each不可以用解决方法
数据仓库·json
无泪无花月隐星沉1 天前
uos server 1070e部署Hadoop
大数据·运维·服务器·hadoop·分布式·uos·国产化os
悟能不能悟2 天前
springboot全局异常
大数据·hive·spring boot
是阿威啊2 天前
【第一站】本地虚拟机部署Hadoop分布式集群
大数据·linux·hadoop·分布式
lightningyang2 天前
Hadoop 分布式集群配置(OpenEuler 1主2)
hadoop·openeuler·天枢一体化虚拟仿真靶场平台
是阿威啊2 天前
【第六站】测试本地项目连接虚拟机上的大数据集群
大数据·linux·hive·hadoop·spark·yarn