记录一个hive中跑insert语句说没创建spark客户端的问题

【背景说明】

我目前搭建离线数仓,并将hive的执行引擎改成了Spark,在将ods层的数据装载到dim层,执行insert语句时报如下错误

【报错】

42000\]\[40000\] Error while compiling statement: FAILED: SemanticException Failed to get a spark session: org.apache.hadoop.hive.ql.metadata.HiveException: Failed to create Spark client for Spark session e1e64eb2-bfa8-4e3f-8e3a-d37b88a92c86 这个错误表示Hive无法为Spark会话创建Spark客户端,可能是由于Spark会话创建失败导致的。 【原因】 经过排查,发现导致该问题的原因是当队列资源达到100%后,如果短期内都没有任务空余资源释放出来提供给创建 sparksession使用,将会导致任务失败而抛出这个异常 。 【解决】 加大client连接时间间隔; 修改hive的配置文件hive-site.xml hive.spark.client.connect.timeout 100000ms 注意注意:每次改完这个配置文件需要重启hiveserver2,我封装了这个脚本 hi.sh stop hi.sh start 再重跑insert ![](https://file.jishuzhan.net/article/1783180129850101761/4330504d188741ae7c16cd00d3f17b45.webp)

相关推荐
是阿威啊11 小时前
【maap-analysis】spark离线数仓项目完整的开发流程
大数据·分布式·spark·scala
默 语1 天前
Spring Boot 3.x升级踩坑记:到底值不值得升级?
hive·spring boot·后端
ha_lydms1 天前
3、Spark 函数_d/e/f/j/h/i/j/k/l
大数据·分布式·spark·函数·数据处理·dataworks·maxcompute
ha_lydms1 天前
4、Spark 函数_m/n/o/p/q/r
大数据·数据库·python·sql·spark·数据处理·dataworks
潘达斯奈基~1 天前
spark性能优化5:资源配置与并行度优化
大数据·ajax·性能优化·spark
ha_lydms1 天前
2、Spark 函数_a/b/c
大数据·c语言·hive·spark·时序数据库·dataworks·数据开发
ha_lydms1 天前
6、Spark 函数_u/v/w/x/y/z
java·大数据·python·spark·数据处理·dataworks·spark 函数
潘达斯奈基~1 天前
spark性能优化6:内存管理
大数据·测试工具·性能优化·spark
是阿威啊2 天前
【第二站】本地hadoop集群配置yarn模式
大数据·linux·hadoop·yarn
笨蛋少年派2 天前
*Spark简介
大数据·分布式·spark