spark Mysql数据库配置

以下是 Spark 连接 MySQL 数据库的核心配置步骤(纯文本版):

  1. 准备 MySQL JDBC 驱动
  • 下载驱动:从 Maven 仓库 下载与 MySQL 服务端版本匹配的 mysql-connector-java-X.X.XX.jar (如 MySQL 8.0 对应 8.0.33 版本)。

  • 部署驱动:

  • 单机模式:将驱动包放入 Spark 的 jars 目录(路径: $SPARK_HOME/jars/ )。

  • 集群模式:提交任务时用 --jars 参数指定驱动路径,例如:

bash

spark-submit --jars /path/to/mysql-connector-java.jar your_app.jar

  1. 构建 SparkSession 并配置连接参数

以 Scala 为例,核心代码如下:

scala

import org.apache.spark.sql.SparkSession

val spark = SparkSession.builder()

.appName("Spark MySQL Example")

.master("local[*]") // 或集群地址(如 yarn)

.getOrCreate()

// 连接参数(需替换为实际信息)

val jdbcUrl = "jdbc:mysql://host:port/database?useUnicode=true&characterEncoding=utf-8"

val table = "your_table"

val prop = new java.util.Properties()

prop.setProperty("user", "your_username")

prop.setProperty("password", "your_password")

prop.setProperty("driver", "com.mysql.cj.jdbc.Driver") // MySQL 8+ 驱动类名

  1. 读取 MySQL 数据

scala

// 读取表数据为 DataFrame

val df = spark.read.jdbc(jdbcUrl, table, prop)

df.show()

  1. 写入数据到 MySQL

scala

// 将 DataFrame 写入 MySQL 表(模式:overwrite/append/ignore/failIfExists)

df.write.jdbc(

url = jdbcUrl,

table = "target_table",

mode = "overwrite",

properties = prop

)

关键注意事项

  1. 驱动版本匹配:
  • MySQL 5.x 驱动类名为 com.mysql.jdbc.Driver ,8.x 及以上为 com.mysql.cj.jdbc.Driver 。

  • 若报 ClassNotFoundException ,检查驱动是否正确部署或版本是否匹配。

  1. 字符集配置:
  • 在 jdbcUrl 中添加 ?useUnicode=true&characterEncoding=utf-8 ,避免中文乱码。
  1. 集群环境权限:
  • 确保所有节点均能访问驱动包,或通过分布式文件系统(如 HDFS)分发驱动。

如需更详细示例(如 Python 版本或分区读取),可补充说明场景!

相关推荐
肌肉娃子4 天前
20260227.spark.Spark 性能刺客:千万别在 for 循环里写 withColumn
spark
B站计算机毕业设计超人5 天前
计算机毕业设计Django+Vue.js音乐推荐系统 音乐可视化 大数据毕业设计 (源码+文档+PPT+讲解)
大数据·vue.js·hadoop·python·spark·django·课程设计
十月南城5 天前
数据湖技术对比——Iceberg、Hudi、Delta的表格格式与维护策略
大数据·数据库·数据仓库·hive·hadoop·spark
Asher05095 天前
Spark核心基础与架构全解析
大数据·架构·spark
FYKJ_20108 天前
springboot大学校园论坛管理系统--附源码42669
java·javascript·spring boot·python·spark·django·php
鸿乃江边鸟11 天前
Spark Datafusion Comet 向量化Rust Native--Native算子ScanExec以及涉及到的Selection Vectors
大数据·rust·spark·arrow
派可数据BI可视化12 天前
一文读懂系列:数据仓库为什么分层,分几层?数仓建模方法有哪些
大数据·数据仓库·信息可视化·spark·商业智能bi
码字的字节12 天前
锚点模型:数据仓库中的高度可扩展建模技术详解
大数据·数据仓库·spark
数据知道12 天前
PostgreSQL:详解 PostgreSQL 与Hadoop与Spark的集成
hadoop·postgresql·spark