Spark,连接MySQL数据库,添加数据,读取数据

以下是使用Spark连接MySQL数据库、添加数据和读取数据的步骤(基于Scala API):

  1. 准备工作
  • 添加MySQL驱动依赖

在Spark项目中引入MySQL Connector JAR包(如 mysql-connector-java-8.0.33.jar ),或通过Spark提交命令指定:

bash

spark-submit --jars mysql-connector-java-8.0.33.jar your_app.jar

  • 确保MySQL服务运行

确认数据库、表存在,且Spark所在节点可访问MySQL端口(默认3306)。

  1. 读取MySQL数据

scala

import org.apache.spark.sql.SparkSession

val spark = SparkSession.builder()

.appName("Spark MySQL Example")

.master("local[*]") // 或集群地址

.getOrCreate()

// 读取参数配置

val jdbcUrl = "jdbc:mysql://localhost:3306/test_db?useSSL=false&useUnicode=true&characterEncoding=utf8"

val table = "users" // 表名

val user = "root"

val password = "your_password"

// 读取数据为DataFrame

val df = spark.read.format("jdbc")

.option("url", jdbcUrl)

.option("dbtable", table)

.option("user", user)

.option("password", password)

.load()

// 显示数据

df.show()

  1. 写入数据到MySQL

scala

// 假设已有待写入的DataFrame(如dfToSave)

val writeMode = "append" // 写入模式:append(追加)、overwrite(覆盖)、ignore(忽略重复)、errorIfExists(冲突报错)

dfToSave.write.format("jdbc")

.option("url", jdbcUrl)

.option("dbtable", "new_users") // 目标表名

.option("user", user)

.option("password", password)

.option("driver", "com.mysql.cj.jdbc.Driver") // 驱动类(可选,Spark会自动推断)

.mode(writeMode)

.save()

关键参数说明

  • jdbcUrl :MySQL连接URL,需指定数据库名和字符编码(避免中文乱码)。

  • dbtable :支持直接写表名,或子查询(如 "(SELECT * FROM users WHERE age > 18) AS subquery" )。

  • writeMode :控制写入行为,根据需求选择模式。

注意事项

  1. 驱动版本匹配:确保MySQL驱动版本与数据库版本兼容(如MySQL 8.0+对应 mysql-connector-java 8.0+ )。

  2. 分区并行读取:若数据量大,可添加 partitionColumn 、 lowerBound 、 upperBound 参数并行读取:

scala

.option("partitionColumn", "id") // 分区字段(需为数字类型)

.option("lowerBound", "1") // 分区最小值

.option("upperBound", "1000") // 分区最大值

.option("numPartitions", "4") // 分区数(并行度)

  1. 事务支持:MySQL JDBC写入不保证事务原子性,大规模写入建议使用批量操作或外部工具(如Sqoop)。

通过以上代码,可实现Spark与MySQL的数据交互。

相关推荐
何传令27 分钟前
SQL排查、分析海量数据以及锁机制
数据库·sql·mysql
msg_data1 小时前
windows环境下MySQL 8.0 修改或重置密码
数据库·mysql
踏过山河,踏过海2 小时前
Django自带的加密算法
数据库·django·sqlite
wzy06233 小时前
基于 Hadoop 生态圈的数据仓库实践 —— OLAP 与数据可视化(三)
hadoop·impala
黑白极客3 小时前
如何判断一个数据库是不是出问题了?
数据库·mysql
不辉放弃3 小时前
Spark的累加器(Accumulator)
大数据·数据库·spark
梦想养猫开书店3 小时前
36、spark-measure 源码修改用于数据质量监控
大数据·分布式·spark
aini_lovee3 小时前
python命令行解析模块argparse
服务器·前端·数据库
Chase_______3 小时前
redis快速入门及使用
java·数据库·redis·学习·spring·缓存