Spark-SQL核心编程

  1. Spark-SQL连接Hive概述:Spark SQL编译时可选择包含Hive支持,包含后能支持Hive表访问、UDF、HQL等功能,且无需事先安装Hive,编译时引入Hive支持为佳。

  2. 连接方式

内嵌Hive:使用简单,直接可用,但实际生产中很少使用。

外部Hive:在spark-shell中连接外部Hive,需拷贝hive-site.xml到conf/目录并修改其中的url、将MySQL驱动拷贝到jars/目录、把core-site.xml和hdfs-site.xml拷贝到conf/目录,最后重启spark-shell。

代码操作Hive:先导入spark-hive_2.12和hive-exec依赖;接着把hive-site.xml拷贝到项目resources目录;然后编写代码设置Spark配置、启用Hive支持。若报错,可设置HADOOP_USER_NAME解决;还可通过配置修改数据库仓库地址,解决数据库位置异常问题。

相关推荐
CONTONUE6 小时前
运行Spark程序-在Idea中(二)
大数据·spark·intellij-idea
计算机人哪有不疯的6 小时前
图文展示HDFS、YARN、MapReduce三者关系
大数据·spark
祈5336 小时前
MapReduce 的工作原理
大数据·mapreduce
Agatha方艺璇6 小时前
MapReduce报错 HADOOP_HOME and hadoop.home.dir are unset.
大数据·hadoop·mapreduce
@十八子德月生8 小时前
8天Python从入门到精通【itheima】-1~5
大数据·开发语言·python·学习
元6338 小时前
Hadoop集群的常用命令
大数据·hadoop
武汉格发Gofartlic9 小时前
FEKO许可证的安全与合规性
大数据·运维·安全
姬激薄10 小时前
HDFS概述
大数据·hadoop·hdfs
依年南台10 小时前
克隆虚拟机组成集群
大数据·hadoop
依年南台11 小时前
搭建大数据学习的平台
大数据·学习