spark写数据库用连接池找不到driver类

最近遇到一个很离谱的bug,在写spark代码把数据写到mysql的时候考虑到连接的开销,所以用了HikariCP连接池,但是无语的是程序执行死活加载不到mysql的Driver类,但是解压了jar看到mysql-conn包就在lib下面,版本也是5.x的没问题,还尝试了--jars,也没解决,倒腾了各种方式,网上也查到确实有人复现这个问题---》百度EMR spark

最终灵光一闪,想到写原生Java的jdbc需要手动class-load一下,所以就在想也给连接池手动load一下是否可行,最终测试发现会类冲突。到此想到难道连接池和spark调用jdbc的类加载逻辑不一样?就想到一个妖点子,把mysql-driver包放在了spark的jars资源路径里面,当作引擎的class资源,果然运行之后问题就解决了。

相关推荐
期待のcode3 小时前
MyBatisX插件
java·数据库·后端·mybatis·springboot
Light605 小时前
点燃变革:领码SPARK融合平台如何重塑OA,开启企业智慧协同新纪元?
大数据·分布式·spark
安审若无5 小时前
oracel迁移数据文件至其他目录操作步骤
数据库
sunxunyong6 小时前
doris运维命令
java·运维·数据库
Guheyunyi6 小时前
智慧消防管理系统如何重塑安全未来
大数据·运维·服务器·人工智能·安全
小鸡吃米…6 小时前
Python PyQt6教程七-控件
数据库·python
写代码的【黑咖啡】6 小时前
如何在大数据数仓中搭建数据集市
大数据·分布式·spark
忍冬行者7 小时前
清理三主三从redis集群的过期key和键值超过10M的key
数据库·redis·缓存
TimberWill7 小时前
使用Redis队列优化内存队列
数据库·redis·缓存
华清远见成都中心7 小时前
成都理工大学&华清远见成都中心实训,助力电商人才培养
大数据·人工智能·嵌入式