spark Mysql数据库配置

以下是 Spark 连接 MySQL 数据库的核心配置步骤(纯文本版):

  1. 准备 MySQL JDBC 驱动
  • 下载驱动:从 Maven 仓库 下载与 MySQL 服务端版本匹配的 mysql-connector-java-X.X.XX.jar (如 MySQL 8.0 对应 8.0.33 版本)。

  • 部署驱动:

  • 单机模式:将驱动包放入 Spark 的 jars 目录(路径: $SPARK_HOME/jars/ )。

  • 集群模式:提交任务时用 --jars 参数指定驱动路径,例如:

bash

spark-submit --jars /path/to/mysql-connector-java.jar your_app.jar

  1. 构建 SparkSession 并配置连接参数

以 Scala 为例,核心代码如下:

scala

import org.apache.spark.sql.SparkSession

val spark = SparkSession.builder()

.appName("Spark MySQL Example")

.master("local[*]") // 或集群地址(如 yarn)

.getOrCreate()

// 连接参数(需替换为实际信息)

val jdbcUrl = "jdbc:mysql://host:port/database?useUnicode=true&characterEncoding=utf-8"

val table = "your_table"

val prop = new java.util.Properties()

prop.setProperty("user", "your_username")

prop.setProperty("password", "your_password")

prop.setProperty("driver", "com.mysql.cj.jdbc.Driver") // MySQL 8+ 驱动类名

  1. 读取 MySQL 数据

scala

// 读取表数据为 DataFrame

val df = spark.read.jdbc(jdbcUrl, table, prop)

df.show()

  1. 写入数据到 MySQL

scala

// 将 DataFrame 写入 MySQL 表(模式:overwrite/append/ignore/failIfExists)

df.write.jdbc(

url = jdbcUrl,

table = "target_table",

mode = "overwrite",

properties = prop

)

关键注意事项

  1. 驱动版本匹配:
  • MySQL 5.x 驱动类名为 com.mysql.jdbc.Driver ,8.x 及以上为 com.mysql.cj.jdbc.Driver 。

  • 若报 ClassNotFoundException ,检查驱动是否正确部署或版本是否匹配。

  1. 字符集配置:
  • 在 jdbcUrl 中添加 ?useUnicode=true&characterEncoding=utf-8 ,避免中文乱码。
  1. 集群环境权限:
  • 确保所有节点均能访问驱动包,或通过分布式文件系统(如 HDFS)分发驱动。

如需更详细示例(如 Python 版本或分区读取),可补充说明场景!

相关推荐
yumgpkpm10 小时前
基于GPU的Spark应用加速 Cloudera CDP/华为CMP鲲鹏版+Nvidia英伟达联合解决方案
大数据·数据库·人工智能·hadoop·elasticsearch·spark·cloudera
鸿乃江边鸟10 小时前
Spark Datafusion Comet 向量化--ApplyColumnarRulesAndInsertTransitions规则
大数据·spark·native
飞Link1 天前
【大数据】SparkSQL常用操作
大数据·数据挖掘·spark
浊酒南街1 天前
SUBSTRING_INDEX 函数介绍
sql·spark
鸿乃江边鸟1 天前
Spark datafusion comet向量化插件CometPlugin
大数据·spark·native
oMcLin1 天前
如何在 Debian 11 上通过构建大数据湖,使用 Apache Spark 加速电商平台的数据分析与实时推荐引擎
spark·debian·apache
Lansonli1 天前
大数据Spark(七十六):Action行动算子reduce和take、takeSample使用案例
大数据·分布式·spark
鸿乃江边鸟1 天前
Apache Arrow的零拷贝是指什么
spark·零拷贝·native·arrow
Light602 天前
智链护航,数档永存:基于领码SPARK平台构建下一代AI+区块链档案系统解决方案
人工智能·spark·区块链
鸿乃江边鸟2 天前
Spark native向量化组件 datafusion comet
大数据·spark·native·向量化