Spark pivot数据透视从句

  • [1. 概念](#1. 概念)
  • [2. 实战](#2. 实战)
    • [2.1. 新列的决定因素](#2.1. 新列的决定因素)
    • [2.2. 新列别名](#2.2. 新列别名)
    • [2.3. column_list中指定多个字段](#2.3. column_list中指定多个字段)
    • [2.4. 多个聚合函数的使用](#2.4. 多个聚合函数的使用)
    • [2.5. 最终出现在SQL结果中的决定因素](#2.5. 最终出现在SQL结果中的决定因素)

Spark pivot数据透视从句

1. 概念

  • 描述
    用于数据透视,根据特定的列获取聚合值,聚合值将转换为select子句中使用的多列。可以在表名或子查询后指定pivot子句
  • 使用场景
    常见的使用场景之一,对数据进行行转列操作
  • 语法格式
sql 复制代码
select *
From Table
PIVOT ( { aggregate_expression [ AS aggregate_expression_alias ] } [ , ... ]
    FOR column_list IN ( expression_list ) )

column_list:可供选择的列为From子句中的列,将使用指定列下的值用于生成新的列。

expression_list:column_list中指定列的值。可以指定别名,指定别名后,则使用别名作为新列名,否则将直接使用列值作为新字段名。

接下来通过几个例子来理解pivot的具体用法。

2. 实战

构键测试数据

sql 复制代码
CREATE TABLE pivot1 (name STRING, subject string, score INT);
INSERT overwrite table pivot1
select inline(array(
struct('张三','语文',95),
struct('张三','英语',85),
struct('张三','数学',100),
struct('李四','语文',90),
struct('李四','英语',80),
struct('李四','数学',100),
struct('王五','语文',99),
struct('王五','数学',98)
));

2.1. 新列的决定因素

sql 复制代码
select *
from pivot1 
pivot(max(score) as score1 for subject in('语文','英语','数学'));
-- 执行结果
name    语文    英语    数学
王五    99      NULL    98
李四    90      80      100
张三    95      85      100

select *
from pivot1 
pivot(max(score) as score1 for subject in('语文','英语'));
-- 执行结果
name    语文    英语
王五    99      NULL
李四    90      80
张三    95      85

select *
from pivot1 
pivot(max(score) as score1 for subject in('英语'));
-- 执行结果
name    英语
王五    NULL
李四    80
张三    85

结果中新列取决于column_list和expression_list的共同影响,在上述示例中表示将pivot1表中subject列下的值作为新的结果列,但是具体将哪些值作为新列,取决于in后面的字段值列表。

2.2. 新列别名

sql 复制代码
select name,c,e,m
from pivot1 
pivot(max(score) as score1 for subject in('语文' as c,'英语' as e,'数学' as m));
-- 执行结果
name    c       e       m
王五    99      NULL    98
李四    90      80      100
张三    95      85      100

在in中指定的别名将作为新列的名称。

2.3. column_list中指定多个字段

sql 复制代码
select *
from pivot1 
pivot(max(score) as score1 for (subject,name) in(('语文','张三'),('语文','李四'),('语文','王五')));
-- 执行结果
[语文, 张三]    [语文, 李四]    [语文, 王五]
95             90             99

当column_list中指定多个字段时,须使用括号,并且expression_list中指定的字段值也需要使用括号,二者括号中内容顺序需要保持一致。
for (subject,name) in(('语文','张三'),('语文','李四'),('语文','王五'))最终决定测试表中只有以下数据参与计算。

txt 复制代码
'张三','语文',95
'李四','语文',90
'王五','语文',99

2.4. 多个聚合函数的使用

sql 复制代码
select *
from pivot1 
pivot(max(score) as score1,avg(score) as avg for subject in('语文','英语','数学'));
-- 执行结果
name    语文_score1     语文_avg        英语_score1     英语_avg        数学_score1     数学_avg
王五     99             99.0           NULL            NULL           98             98.0
李四     90             90.0           80              80.0           100            100.0
张三     95             95.0           85              85.0           100            100.0

select *
from pivot1 
pivot(max(score) as score1,avg(score) as avg for subject in('语文','英语'));
-- 执行结果
name    语文_score1     语文_avg        英语_score1     英语_avg
王五     99             99.0           NULL            NULL
李四     90             90.0           80              80.0
张三     95             95.0           85              85.0

上述SQL1中,原始表中3个字段列,只有name列在pivot中未涉及,但是最终结果将会包含name列下的全部值。

理解聚合函数的聚合粒度是什么?

在in中指定的值将会作为聚合条件之一,同时由于name未参与pivot函数使得结果包含全部name列值,因此结合起来的聚合条件就是name+subject

这里得出部分结论

  • column_list中已指定的列将不会出现在最终结果中
  • 聚合函数中使用的列也不会出现在最终结果中
  • 只有在column_list和聚合函数中都没有使用的列,才会原模原样出现在最终结果中,并且会将这些列作为聚合条件的一部分

2.5. 最终出现在SQL结果中的决定因素

sql 复制代码
select *
from pivot1 
pivot(max(score) as score1,avg(score) as avg,count(subject) as cnt for name in('张三','李四','王五'));
-- 执行结果
张三_score1   张三_avg    张三_cnt    李四_score1    李四_avg    李四_cnt     王五_score1    王五_avg    王五_cnt
100           93.33      3          100           90.0        3           99             98.5       2


select *
from pivot1 
pivot(max(score) as score1,avg(score) as avg,count(score) as cnt for name in('张三','李四','王五'));
-- 执行结果
subject 张三_score1    张三_avg     张三_cnt   李四_score1   李四_avg    李四_cnt     王五_score1  王五_avg    王五_cnt
英语     85            85.0        1          80           80.0        1           NULL        NULL        NULL
语文     95            95.0        1          90           90.0        1           99          99.0        1
数学     100           100.0       1          100          100.0       1           98          98.0        1

上述示例1中pivot1表中所有的字段中都参与了pivot函数,或在聚合函数中或在for后,因此SQL执行结果中将不会包含测试表中的原始列,聚合条件即为name。

示例2中pivot1表中subject字段没有参与pivot函数,因此SQL执行结果中会包含subject列的全部值,然后该值会加入到聚合条件中,聚合条件为subject+name。

相关推荐
soso19684 分钟前
DataWorks快速入门
大数据·数据仓库·信息可视化
The_Ticker10 分钟前
CFD平台如何接入实时行情源
java·大数据·数据库·人工智能·算法·区块链·软件工程
java1234_小锋15 分钟前
Elasticsearch中的节点(比如共20个),其中的10个选了一个master,另外10个选了另一个master,怎么办?
大数据·elasticsearch·jenkins
Elastic 中国社区官方博客16 分钟前
Elasticsearch 开放推理 API 增加了对 IBM watsonx.ai Slate 嵌入模型的支持
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
我的运维人生16 分钟前
Elasticsearch实战应用:构建高效搜索与分析平台
大数据·elasticsearch·jenkins·运维开发·技术共享
大数据编程之光32 分钟前
Flink Standalone集群模式安装部署全攻略
java·大数据·开发语言·面试·flink
B站计算机毕业设计超人34 分钟前
计算机毕业设计SparkStreaming+Kafka旅游推荐系统 旅游景点客流量预测 旅游可视化 旅游大数据 Hive数据仓库 机器学习 深度学习
大数据·数据仓库·hadoop·python·kafka·课程设计·数据可视化
在下不上天2 小时前
Flume日志采集系统的部署,实现flume负载均衡,flume故障恢复
大数据·开发语言·python
智慧化智能化数字化方案3 小时前
华为IPD流程管理体系L1至L5最佳实践-解读
大数据·华为
PersistJiao4 小时前
在 Spark RDD 中,sortBy 和 top 算子的各自适用场景
大数据·spark·top·sortby