【大数据学习 | Spark】Spark on hive与 hive on Spark的区别

1. Spark on hive

Spark on hive指的是使用Hive的元数据(Metastore)和SQL解析器(HiveQL)。这种方式下,spark可以读取和写入hive表,利用hive的元数据信息来进行表结构的定义和管理。

具体特点为:

1.1 元数据共享

sparkSQL使用hive的Metastore来获取表的元数据信息,这样可以在SparkSQL直接访问hive表。

1.2 SQL兼容性

sparkSQL支持HiveQL的语法,使得用户可以使用熟悉的Hive查询语句在Spark上执行SQL查询。

1.3 性能优化

Spark可以利用强大的分布式计算能力来加速查询,尤其是在处理大规模数据集时。

2. Hive on Spark

hive on Spark指的是将hive的默认的执行引擎MR换成Spark。这种方式下,Hive查询会由Spark执行而不是MR执行,从而利用Spark强大的计算能力。

具体特点为:

2.1 执行引擎的切换

通过配置Hive使其使用Spark作为执行引擎,可以在不改变现有的Hive查询的情况下,显著提高查询性能。

2.2 配置设置

需要在Hive配置文件设置相关参数。

2.3 兼容性

大多数的Hive查询和UDF(用户自定义函数)都可以在Spark引擎上运行,但某些特定的功能可能需要额外的配置。

3. 主要区别

3.1 角色和职责

  • Spark on hive,Spark作为主要的计算框架,利用Hive的元数据和SQL解析器。
  • Hive on Spark,Hive作为主要的查询工具,使用Spark作为底层的执行引擎。

3.2 使用场景

  • Spark on hive,适用于已经使用Spark进行数据处理,但希望利用Hive的元数据管理和SQL解析语法的场景。
  • Hive on Spark,适用于已经适用SQL进行数据查询,但希望提高查询性能的场景。

3.3 发起点

  • Spark on hive,查询是从Spark应用程序发起的,使用SparkSQL或者DataFrame API。
  • Hive on Spark,查询是从Hive客户端发起,使用HiveQL。

3.4 元数据管理

  • Spark on hive,Spark通过Hive的MetaStore获取元数据。
  • Hive on Spark,Hive通过自己的MetaStore来获取元数据。

3.5 任务调度

  • Spark on hive,Spark直接生成执行计划并调度Spark任务。
  • Hive on Spark,Hive生成查询计划,然后将其转化为Spark任务并提交给Spark集群。
相关推荐
SPC的存折20 小时前
openEuler 24.03 MariaDB Galera 集群部署指南(cz)
linux·运维·服务器·数据库·mysql
仲芒20 小时前
[24年单独笔记] MySQL 常用的 DML 命令
数据库·笔记·mysql
成为大佬先秃头20 小时前
开放标准(RFC 7519):JSON Web Token (JWT)
spring boot·后端·json·jwt
xcbrand20 小时前
文旅行业品牌策划公司找哪家
大数据·运维·人工智能·python
SPC的存折20 小时前
MySQL 8.0 分库分表
linux·运维·服务器·数据库·mysql
ZC跨境爬虫20 小时前
Scrapy多级请求实战:5sing伴奏网爬取踩坑与优化全记录(JSON提取+Xpath解析)
爬虫·scrapy·html·json
zxsz_com_cn20 小时前
设备预测性维护故障预警规则与原理解析
大数据·人工智能
hughnz1 天前
AI和自动化让油田钻工慢慢消失
大数据·人工智能
juniperhan1 天前
Flink 系列第8篇:Flink Checkpoint 全解析(原理+流程+配置+优化)
大数据·分布式·flink
带刺的坐椅1 天前
Snack JSONPath 项目架构分析
java·json·java8·jsonpath