Spark-SQL核心编程

  1. Spark-SQL数据加载与保存
  • 通用方式:加载使用 spark.read.load ,可通过 format("...") 指定数据类型 , load("...") 传入数据路径, option("...") 设置JDBC参数。保存用 df.write.save ,同样可指定类型、路径和JDBC参数,还能通过 mode() 设置 SaveMode 处理已存在文件。

  • Parquet格式:Spark SQL默认数据源,加载和保存操作简单,无需 format 指定,修改 spark.sql.sources.default 可更改默认格式。

  • JSON格式:能自动推测结构加载为 Dataset[Row] ,读取的JSON文件每行应为JSON串。

  • CSV格式:可配置列表信息,通过设置 sep inferSchema header 等选项读取,第一行设为数据列。

  • MySQL:借助JDBC读取和写入数据。读取时导入 mysql-connector-java 依赖,可使用 spark.read.format("jdbc") 多种形式;写入时先创建数据集,再按JDBC格式设置参数并指定 SaveMode 保存。

  1. Spark-SQL连接Hive
  • 内嵌Hive:使用方便,直接可用,但实际生产中很少使用。

  • 外部Hive:在 spark-shell 连接需拷贝 hive-site.xml core-site.xml hdfs-site.xml 到 conf/ 目录,将 hive-site.xml 中 localhost 改为实际节点名,拷贝MySQL驱动到 jars/ 目录,最后重启 spark-shell 。

  • Spark beeline:Spark Thrift Server兼容HiveServer2,部署后可用 beeline 访问。连接步骤与连接外部Hive类似,还需启动Thrift Server,用 beeline -u jdbc:hive2://node01:10000 -n root 连接。

  • Spark-SQL CLI:可本地运行Hive元数据服务并执行查询。操作时将MySQL驱动放入 jars/ , hive-site.xml 放入 conf/ ,运行 bin/ 目录下的 spark-sql.cmd 。

  • 代码操作Hive:先导入 spark-hive_2.12 和 hive-exec 依赖,拷贝 hive-site.xml 到项目 resources 目录,代码中启用Hive支持。若遇权限问题,可设置 System.setProperty("HADOOP_USER_NAME", "node01") ,还可修改数据库仓库地址 。

相关推荐
编程彩机1 小时前
互联网大厂Java面试:从分布式架构到大数据场景解析
java·大数据·微服务·spark·kafka·分布式事务·分布式架构
Moshow郑锴9 小时前
Spark在银行系统ETL中的实战应用:TXT文件到PostgreSQL的余额处理全流程
postgresql·spark·etl
petrel201511 小时前
【Spark 核心内参】2026.1:JIRA vs GitHub Issues 治理模式大讨论与 4.2.0 预览版首发
大数据·spark
petrel201511 小时前
【Spark 核心内参】2025.9:预览版常态化与数据类型的重构
大数据·spark
bigdata-rookie12 小时前
Spark shuffle 和 MapReduce shuffle 的区别
大数据·spark·mapreduce
B站计算机毕业设计超人12 小时前
计算机毕业设计hadoop+spark+hive在线教育可视化 课程推荐系统 大数据毕业设计(源码+LW文档+PPT+讲解)
大数据·人工智能·hive·hadoop·scrapy·spark·课程设计
B站计算机毕业设计超人12 小时前
计算机毕业设计PySpark+Hive+Django小红书评论情感分析 小红书笔记可视化 小红书舆情分析预测系统 大数据毕业设计(源码+LW+PPT+讲解)
大数据·人工智能·hive·爬虫·python·spark·课程设计
uesowys12 小时前
Apache Spark算法开发指导-Random forest classifier
算法·随机森林·spark
张小凡vip1 天前
数据挖掘(十)---python操作Spark常用命令
python·数据挖掘·spark
uesowys1 天前
Apache Spark算法开发指导-Decision tree classifier
算法·决策树·spark