记录一个hive中跑insert语句说没创建spark客户端的问题

【背景说明】

我目前搭建离线数仓,并将hive的执行引擎改成了Spark,在将ods层的数据装载到dim层,执行insert语句时报如下错误

【报错】

42000\]\[40000\] Error while compiling statement: FAILED: SemanticException Failed to get a spark session: org.apache.hadoop.hive.ql.metadata.HiveException: Failed to create Spark client for Spark session e1e64eb2-bfa8-4e3f-8e3a-d37b88a92c86 这个错误表示Hive无法为Spark会话创建Spark客户端,可能是由于Spark会话创建失败导致的。 【原因】 经过排查,发现导致该问题的原因是当队列资源达到100%后,如果短期内都没有任务空余资源释放出来提供给创建 sparksession使用,将会导致任务失败而抛出这个异常 。 【解决】 加大client连接时间间隔; 修改hive的配置文件hive-site.xml hive.spark.client.connect.timeout 100000ms 注意注意:每次改完这个配置文件需要重启hiveserver2,我封装了这个脚本 hi.sh stop hi.sh start 再重跑insert ![](https://file.jishuzhan.net/article/1783180129850101761/4330504d188741ae7c16cd00d3f17b45.webp)

相关推荐
大鳥9 小时前
企业级 Hive on Spark 开发规范
hive·hadoop·spark
Hello.Reader18 小时前
Flink × Hive HiveCatalog 一键接入元数据,Flink 直接读写 Hive 表
大数据·hive·flink
Hello.Reader19 小时前
Flink + Hive Functions HiveModule、原生聚合加速、复用 Hive UDF/UDTF/UDAF
大数据·hive·flink
德彪稳坐倒骑驴20 小时前
Spark入门知识
大数据·分布式·spark
zhangxl-jc21 小时前
SparkStreaming消费Kafka 重启任务时重复消费数据
分布式·spark·kafka
Hello.Reader21 小时前
Flink Hive 把 Hive 表变成“可流式消费”的数仓底座
大数据·hive·flink
B站计算机毕业设计超人1 天前
计算机毕业设计Python知识图谱中华古诗词可视化 古诗词情感分析 古诗词智能问答系统 AI大模型自动写诗 大数据毕业设计(源码+LW文档+PPT+讲解)
大数据·人工智能·hadoop·python·机器学习·知识图谱·课程设计
B站计算机毕业设计超人1 天前
计算机毕业设计Python+大模型音乐推荐系统 音乐数据分析 音乐可视化 音乐爬虫 知识图谱 大数据毕业设计
人工智能·hadoop·爬虫·python·数据分析·知识图谱·课程设计
归去来?1 天前
记录一次从https接口提取25G大文件csv并落表的经历
大数据·数据仓库·hive·python·网络协议·5g·https
徐先生 @_@|||2 天前
数据分析体系全览导图综述
大数据·hadoop·分布式·数据分析