【Spark】Spark SQL执行计划-精简版

Spark SQL分为四个子项目:

Catalyst (sql/catalyst):

  • Catalyst 是 Spark SQL 使用的功能性、可扩展的查询优化器。它是一个与实现无关的框架,用于操作关系运算符和表达式的树。包括两部分:用来表示树的函数库和应用于该树的规则库

Execution (sql/core):

  • 查询计划程序/执行(planner / execution)引擎,用于将Catalyst的逻辑查询计划转换为Spark RDD代码。该组件还包括一个新的公共接口 SQLContext,它允许用户针对现有的 RDD和Parquet文件执行SQL或LINQ语句。

Hive支持 (sql/ Hive):

  • 包括名为 HiveContext 的 SQLContext 扩展,允许用户使用 HiveSQL 的子集编写查询并使用 Hive SerDes 从 Hive Metastore 访问数据。还有一些包装器允许用户运行包含 Hive UDF、UDAF 和 UDTF 的查询。

HiveServer和CLI支持 (sql/hive-thriftserver)

  • 包括对 SQL CLI (bin/spark-sql) 和 HiveServer2(用于 JDBC/ODBC)兼容服务器的支持。

SparkSQL执行过程:

Parser: 利用Antlr4对SQL语句进行词法和语法的解析,抽象成AST语法树并转换成Unresolved Logical Plan;
Analyzer:Catalyst要结合DataFrame的Schema信息,来确认计划中的表名、字段名、字段类型与实际数据是否一致,完成确认之后,将 Unresolved Logical Plan 解析成 Analyzed logical plan;
Optimizer:Catalyst基于一些既定的启发式规则将 Analyzed logical plan 解析成 Optimized Logical Plan;规则:如谓词下推,列减裁,常量替换;
Planner

  • 在优化Spark Plan的过程中,Catalyst基于既定的优化策略(Strategies),把逻辑计划中的关系操作符一一映射成物理操作符,生成Spark Plan;优化策略(Strategies)如下:
    • SpecialLimits:指定Limit策略
    • InMemoryScans:缓存策略
    • Aggregation:聚合策略
    • JoinSelection:Join策略选择
    • BasicOperators:逻辑到物理操作符的映射,如Project、Filter、Sort等
  • 在生成Physical Plan过程中,Catalyst再基于事先定义的Preparation Rules,对Spark Plan做进一步的完善、生成可执行的Physical Plan。Preparation Rules如下:
    • EnsureRequirements:验证输出的分区(partition)和我们要的分区是不是一样,不一样的话需要添加shuffle重分区,如果有排序需求,要添加Sort操作,
    • CollapseCodegenStages:全阶段代码生成(Whole Stage Code Generation)
    • ReuseExchange:内存或磁盘复用,
    • ReuseSubquery:子查询复数用
    • PlanSubqueries:生成子查询
    • ExtractPythonUDFs :提取Python的UDF函数
      Code Generation:选定最优的物理执行计划,准备生成字节码去开始执行
相关推荐
15年网络推广青哥3 分钟前
国际抖音TikTok矩阵运营的关键要素有哪些?
大数据·人工智能·矩阵
节点。csn1 小时前
Hadoop yarn安装
大数据·hadoop·分布式
arnold661 小时前
探索 ElasticSearch:性能优化之道
大数据·elasticsearch·性能优化
NiNg_1_2342 小时前
基于Hadoop的数据清洗
大数据·hadoop·分布式
成长的小牛2333 小时前
es使用knn向量检索中numCandidates和k应该如何配比更合适
大数据·elasticsearch·搜索引擎
cmdch20173 小时前
Mybatis加密解密查询操作(sql前),where要传入加密后的字段时遇到的问题
数据库·sql·mybatis
goTsHgo3 小时前
在 Spark 上实现 Graph Embedding
大数据·spark·embedding
隔着天花板看星星3 小时前
Spark-Streaming集成Kafka
大数据·分布式·中间件·spark·kafka
奥顺4 小时前
PHPUnit使用指南:编写高效的单元测试
大数据·mysql·开源·php