Spark SQL----Hints

Spark SQL----Hints

  • 一、描述
  • 二、语法
  • 三、分区提示
    • [3.1 分区提示类型](#3.1 分区提示类型)
    • [3.2 例子](#3.2 例子)
  • [四、Join Hints](#四、Join Hints)
    • [4.1 Join提示类型](#4.1 Join提示类型)
    • [4.2 例子](#4.2 例子)

一、描述

提示(Hints)为用户提供了一种方法来建议Spark SQL如何使用特定的方法来生成其执行计划。

二、语法

sql 复制代码
/*+ hint [ , ... ] */

三、分区提示

分区提示允许用户建议Spark应该遵循的分区策略。支持COALESCE、REPARTITION和REPARTITION_BY_RANGE提示,它们分别相当于coalesce、repartition和repartitionByRange的 Dataset APIs。REBALANCE只能用作提示,这些提示给用户提供了一种优化性能和控制Spark SQL输出文件数量的方法。当指定多个分区提示时,会将多个节点插入到逻辑计划中,但优化器会选择最左边的提示。

3.1 分区提示类型

  • COALESCE
    COALESCE提示可用于将分区数量减少到指定的分区数量。它以分区编号作为参数。
  • REPARTITION
    REPARTITION提示可用于使用指定的分区表达式重新分区到指定数量的分区。它将分区号、列名或两者都作为参数。
  • REPARTITION_BY_RANGE
    REPARTITION_BY_RANGE提示可用于使用指定的分区表达式对指定数量的分区进行重新分区。它采用列名和可选的分区号作为参数。
  • REBALANCE
    REBALANCE提示可用于重新平衡查询结果输出分区,使每个分区都具有合理的大小(不太小也不太大)。它可以将列名作为参数,并尽最大努力按这些列对查询结果进行分区。这是一个best-effort:如果有倾斜,Spark会将倾斜的分区拆分,使这些分区不太大。当你需要将此查询的结果写入表以避免文件太小/太大时,此提示非常有用。如果未启用AQE,则忽略此提示。

3.2 例子

sql 复制代码
SELECT /*+ COALESCE(3) */ * FROM t;

SELECT /*+ REPARTITION(3) */ * FROM t;

SELECT /*+ REPARTITION(c) */ * FROM t;

SELECT /*+ REPARTITION(3, c) */ * FROM t;

SELECT /*+ REPARTITION_BY_RANGE(c) */ * FROM t;

SELECT /*+ REPARTITION_BY_RANGE(3, c) */ * FROM t;

SELECT /*+ REBALANCE */ * FROM t;

SELECT /*+ REBALANCE(3) */ * FROM t;

SELECT /*+ REBALANCE(c) */ * FROM t;

SELECT /*+ REBALANCE(3, c) */ * FROM t;

-- multiple partitioning hints
EXPLAIN EXTENDED SELECT /*+ REPARTITION(100), COALESCE(500), REPARTITION_BY_RANGE(3, c) */ * FROM t;
== Parsed Logical Plan ==
'UnresolvedHint REPARTITION, [100]
+- 'UnresolvedHint COALESCE, [500]
   +- 'UnresolvedHint REPARTITION_BY_RANGE, [3, 'c]
      +- 'Project [*]
         +- 'UnresolvedRelation [t]

== Analyzed Logical Plan ==
name: string, c: int
Repartition 100, true
+- Repartition 500, false
   +- RepartitionByExpression [c#30 ASC NULLS FIRST], 3
      +- Project [name#29, c#30]
         +- SubqueryAlias spark_catalog.default.t
            +- Relation[name#29,c#30] parquet

== Optimized Logical Plan ==
Repartition 100, true
+- Relation[name#29,c#30] parquet

== Physical Plan ==
Exchange RoundRobinPartitioning(100), false, [id=#121]
+- *(1) ColumnarToRow
   +- FileScan parquet default.t[name#29,c#30] Batched: true, DataFilters: [], Format: Parquet,
      Location: CatalogFileIndex[file:/spark/spark-warehouse/t], PartitionFilters: [],
      PushedFilters: [], ReadSchema: struct<name:string>

四、Join Hints

Join提示允许用户建议Spark应该使用的join策略。在Spark 3.0之前,仅支持BROADCAST Join Hint。3.0中增加了对MERGE、SHUFFLE_HASH和SHUFFLE_REPLICATE_NL Joint提示的支持。当在join的两侧都指定了不同的join策略提示时,Spark会按以下顺序对提示进行优先级排序:BROADCAST > MERGE > SHUFFLE_HASH > SHUFFLE_REPLICATE_NL。当两侧都使用BROADCAST提示或SHUFFLE_HASH提示时,Spark会根据join类型和relations的大小来选择构建侧。由于给定的策略可能不支持所有的join类型,因此不能保证Spark使用提示建议的join策略。

4.1 Join提示类型

  • BROADCAST
    建议Spark使用broadcast join。无论autoBroadcastJoinThreshold如何,都将广播带有提示的join端。如果join的两侧都有广播提示,则将广播大小较小的一个(基于统计数据)。BROADCAST的别名是BROADCASTJOIN和MAPJOIN。
  • MERGE
    建议Spark使用shuffle sort merge join。MERGE的别名是SHUFFLE_MERGE和MERGEJOIN。
  • SHUFFLE_HASH
    建议Spark使用shuffle hash join。如果双方都有huffle hash提示,Spark会选择较小的一方(基于统计数据)作为构建方。
  • SHUFFLE_REPLICATE_NL
    建议Spark使用shuffle-and-replicate nested loop join。

4.2 例子

sql 复制代码
-- Join Hints for broadcast join
SELECT /*+ BROADCAST(t1) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;
SELECT /*+ BROADCASTJOIN (t1) */ * FROM t1 left JOIN t2 ON t1.key = t2.key;
SELECT /*+ MAPJOIN(t2) */ * FROM t1 right JOIN t2 ON t1.key = t2.key;

-- Join Hints for shuffle sort merge join
SELECT /*+ SHUFFLE_MERGE(t1) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;
SELECT /*+ MERGEJOIN(t2) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;
SELECT /*+ MERGE(t1) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;

-- Join Hints for shuffle hash join
SELECT /*+ SHUFFLE_HASH(t1) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;

-- Join Hints for shuffle-and-replicate nested loop join
SELECT /*+ SHUFFLE_REPLICATE_NL(t1) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;

-- When different join strategy hints are specified on both sides of a join, Spark
-- prioritizes the BROADCAST hint over the MERGE hint over the SHUFFLE_HASH hint
-- over the SHUFFLE_REPLICATE_NL hint.
-- Spark will issue Warning in the following example
-- org.apache.spark.sql.catalyst.analysis.HintErrorLogger: Hint (strategy=merge)
-- is overridden by another hint and will not take effect.
SELECT /*+ BROADCAST(t1), MERGE(t1, t2) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;
相关推荐
新手村-小钻风1 分钟前
AI-Agent 深度科普:从概念到架构、应用与未来趋势
大数据·人工智能
王小王-12313 分钟前
基于Spark的白酒行业数据分析与可视化系统的设计与实现
大数据·数据分析·spark·白酒数据分析·白酒评价文本分析·白酒价格预测·白酒行业
float_六七19 分钟前
Apache Commons Lang 3
开发语言·python·apache
IT研究室32 分钟前
大数据毕业设计选题推荐-基于大数据的城市空气污染数据分析系统-Spark-Hadoop-Bigdata
大数据·hadoop·spark·毕业设计·源码·bigdata·选题推荐
武子康1 小时前
大数据-80 Spark 从 MapReduce 到 Spark:大数据处理引擎的三代演进全景解析
大数据·后端·spark
TDengine (老段)1 小时前
TDengine IDMP 5 个实测场景让监控变简单
大数据·数据库·物联网·ai·时序数据库·tdengine·涛思数据
秋难降1 小时前
零基础学习SQL(九)——存储引擎
前端·sql·mysql
Lx3521 小时前
MapReduce内存调优:避免OOM的黄金法则
大数据·hadoop
鸿蒙先行者2 小时前
鸿蒙分布式能力调用失败解决方案及案例
分布式·harmonyos
yourkin6663 小时前
RocketMQ 分布式事务方案
分布式·rocketmq