写spark程序数据计算( 数据库的计算,求和,汇总之类的)连接mysql数据库,写入计算结果

  1. 添加依赖

在项目的 `pom.xml`(Maven)中添加以下依赖:

```xml

<!-- Spark SQL -->

<dependency>

<groupId>org.apache.spark</groupId>

<artifactId>spark-sql_2.12</artifactId>

<version>3.3.0</version>

</dependency>

<!-- MySQL Connector -->

<dependency>

<groupId>mysql</groupId>

<artifactId>mysql-connector-java</artifactId>

<version>8.0.33</version>

</dependency>

代码

import org.apache.spark.sql.{SparkSession, SaveMode}

object SparkMySQLDemo {

def main(args: Array[String]): Unit = {

// 创建 SparkSession

val spark = SparkSession.builder()

.appName("SparkMySQLDemo")

.master("local[*]") // 生产环境需改为集群模式,如 yarn

.config("spark.sql.shuffle.partitions", "5") // 优化分区数

.getOrCreate()

// 设置 MySQL 连接参数

val jdbcUrl = "jdbc:mysql://localhost:3306/your_database"

val jdbcUsername = "your_username"

val jdbcPassword = "your_password"

try {

// 从 MySQL 读取数据

val df = spark.read

.format("jdbc")

.option("url", jdbcUrl)

.option("dbtable", "source_table") // 要读取的表名

.option("user", jdbcUsername)

.option("password", jdbcPassword)

.load()

// 执行计算(示例:按 category 分组求和)

val resultDF = df.groupBy("category")

.agg(

sum("amount").alias("total_amount"),

count("*").alias("record_count")

)

// 打印计算结果(调试用)

resultDF.show()

// 将结果写入 MySQL

resultDF.write

.format("jdbc")

.option("url", jdbcUrl)

.option("dbtable", "result_table") // 目标表名

.option("user", jdbcUsername)

.option("password", jdbcPassword)

.mode(SaveMode.Append) // 写入模式:覆盖/追加

.save()

println("数据写入 MySQL 成功!")

} catch {

case e: Exception => e.printStackTrace()

} finally {

spark.stop()

}

}

}

相关推荐
綮地7 分钟前
ES备份脚本
大数据·elasticsearch·搜索引擎
拓端研究室1 小时前
2025-2026食品饮料行业全景洞察报告:婴童零辅食、量贩零食、东南亚出海 | 附180+份报告PDF、数据、可视化模板汇总下载
大数据·人工智能
远方16091 小时前
117-Oracle 26ai FILTER(过滤)子句新特性
大数据·数据库·sql·oracle·database
isNotNullX1 小时前
一文讲清8大数据清洗方法
大数据·数据库·数据挖掘·数据迁移
人工智能培训2 小时前
深度学习赋能千行百业:核心应用场景与发展展望
大数据·人工智能·具身智能·ai培训·人工智能工程师
Francek Chen2 小时前
【大数据存储与管理】分布式数据库HBase:05 HBase运行机制
大数据·数据库·hadoop·分布式·hdfs·hbase
LJ97951112 小时前
当AI遇上媒体发布:企业传播的下一站
大数据·人工智能
GIS数据转换器2 小时前
小龙虾(OpenClaw) 在低空经济领域的应用
大数据·人工智能·无人机·智慧城市·制造
zzzzzwbetter2 小时前
Hadoop完全分布式部署-Master的NameNode以及Slaver2的DataNode未启动
大数据·hadoop·分布式
小荟荟2 小时前
全国数据资产新闻和报纸摘要联播 2026年3月11日 第15期
大数据·人工智能