spark写数据库用连接池找不到driver类

最近遇到一个很离谱的bug,在写spark代码把数据写到mysql的时候考虑到连接的开销,所以用了HikariCP连接池,但是无语的是程序执行死活加载不到mysql的Driver类,但是解压了jar看到mysql-conn包就在lib下面,版本也是5.x的没问题,还尝试了--jars,也没解决,倒腾了各种方式,网上也查到确实有人复现这个问题---》百度EMR spark

最终灵光一闪,想到写原生Java的jdbc需要手动class-load一下,所以就在想也给连接池手动load一下是否可行,最终测试发现会类冲突。到此想到难道连接池和spark调用jdbc的类加载逻辑不一样?就想到一个妖点子,把mysql-driver包放在了spark的jars资源路径里面,当作引擎的class资源,果然运行之后问题就解决了。

相关推荐
weixin_3077791318 分钟前
PySpark实现获取S3上Parquet文件的数据结构,并自动在Amazon Redshift里建表和生成对应的建表和导入数据的SQL
数据仓库·python·spark·云计算·aws
qiquandongkh27 分钟前
期权帮|股指期货3月合约交割该如何做?
大数据·金融·区块链
jambinliang37 分钟前
工业零件不良率、残次率的智能数据分析和数字化管理
大数据·python·sql·数据分析
唐小旭44 分钟前
20250225-代码笔记03-class CVRPModel AND other class
数据库·redis·笔记
33三 三like1 小时前
数据库 复习
数据库
weixin_307779131 小时前
PySpark实现获取S3上Parquet文件的数据结构,并自动在Snowflake里建表和生成对应的建表和导入数据的SQL
python·sql·spark·aws
kngines2 小时前
【实战 ES】实战 Elasticsearch:快速上手与深度实践-2.1.2字段类型选择:keyword vs text、nested对象
大数据·elasticsearch·搜索引擎
月亮给我抄代码3 小时前
Flink性能指标详解MetricsAnalysis
大数据·flink
橘猫云计算机设计3 小时前
基于微信小程序的疫情互助平台(源码+lw+部署文档+讲解),源码可白嫖!
java·大数据·开发语言·spring boot·微信小程序·小程序·汽车
冰火同学3 小时前
简述Spark的宽窄依赖以及Stage是怎么划分的以及每个stage又是怎么划分task任务数
大数据·分布式·spark