【大数据学习 | Spark】Spark on hive与 hive on Spark的区别

1. Spark on hive

Spark on hive指的是使用Hive的元数据(Metastore)和SQL解析器(HiveQL)。这种方式下,spark可以读取和写入hive表,利用hive的元数据信息来进行表结构的定义和管理。

具体特点为:

1.1 元数据共享

sparkSQL使用hive的Metastore来获取表的元数据信息,这样可以在SparkSQL直接访问hive表。

1.2 SQL兼容性

sparkSQL支持HiveQL的语法,使得用户可以使用熟悉的Hive查询语句在Spark上执行SQL查询。

1.3 性能优化

Spark可以利用强大的分布式计算能力来加速查询,尤其是在处理大规模数据集时。

2. Hive on Spark

hive on Spark指的是将hive的默认的执行引擎MR换成Spark。这种方式下,Hive查询会由Spark执行而不是MR执行,从而利用Spark强大的计算能力。

具体特点为:

2.1 执行引擎的切换

通过配置Hive使其使用Spark作为执行引擎,可以在不改变现有的Hive查询的情况下,显著提高查询性能。

2.2 配置设置

需要在Hive配置文件设置相关参数。

2.3 兼容性

大多数的Hive查询和UDF(用户自定义函数)都可以在Spark引擎上运行,但某些特定的功能可能需要额外的配置。

3. 主要区别

3.1 角色和职责

  • Spark on hive,Spark作为主要的计算框架,利用Hive的元数据和SQL解析器。
  • Hive on Spark,Hive作为主要的查询工具,使用Spark作为底层的执行引擎。

3.2 使用场景

  • Spark on hive,适用于已经使用Spark进行数据处理,但希望利用Hive的元数据管理和SQL解析语法的场景。
  • Hive on Spark,适用于已经适用SQL进行数据查询,但希望提高查询性能的场景。

3.3 发起点

  • Spark on hive,查询是从Spark应用程序发起的,使用SparkSQL或者DataFrame API。
  • Hive on Spark,查询是从Hive客户端发起,使用HiveQL。

3.4 元数据管理

  • Spark on hive,Spark通过Hive的MetaStore获取元数据。
  • Hive on Spark,Hive通过自己的MetaStore来获取元数据。

3.5 任务调度

  • Spark on hive,Spark直接生成执行计划并调度Spark任务。
  • Hive on Spark,Hive生成查询计划,然后将其转化为Spark任务并提交给Spark集群。
相关推荐
CSCN新手听安15 分钟前
【linux】网络基础(三)TCP服务端网络版本计算器的优化,Json的使用,服务器守护进程化daemon,重谈OSI七层模型
linux·服务器·网络·c++·tcp/ip·json
callJJ30 分钟前
Spring AI 文本聊天模型完全指南:ChatModel 与 ChatClient
java·大数据·人工智能·spring·spring ai·聊天模型
冻感糕人~1 小时前
收藏备用|小白&程序员必看!AI Agent入门详解(附工业落地实操关联)
大数据·人工智能·架构·大模型·agent·ai大模型·大模型学习
·云扬·1 小时前
MySQL Redo Log落盘机制深度解析
数据库·mysql
蓝眸少年CY1 小时前
Hadoop2-HDFS文件系统
大数据·hadoop·hdfs
Web3VentureView1 小时前
SYNBO Protocol AMA回顾:下一个起点——什么将真正推动比特币重返10万美元?
大数据·人工智能·金融·web3·区块链
老金带你玩AI1 小时前
CC本次更新最强的不是OPUS4.6,而是Agent Swarm(蜂群)
大数据·人工智能
码界筑梦坊1 小时前
330-基于Python的社交媒体舆情监控系统
python·mysql·信息可视化·数据分析·django·毕业设计·echarts
Hello.Reader1 小时前
Flink Plugins 机制隔离 ClassLoader、目录结构、FileSystem/Metric Reporter 实战与避坑
大数据·flink