Spark整合hive的时候出错

Spark整合hive的时候
连接Hdfs不从我hive所在的机器上找,而是去连接我的集群里的另外两台机器
但是我的集群没有开
所以下面就一直在retry

猜测:

出现这个错误的原因可能与core-site.xml和hdfs-site.xml有关,因为这里面配置了集群的namenode信息

解决方案:

我新建了一个项目,里面没有core-site.xml和hdfs-site.xml
只放进去一个hive-site.xml

错误原因:

我的hive-site.xml中没有图片中的三个配置,加上这三个配置就好了

相关推荐
科技峰行者2 小时前
微软与OpenAI联合研发“Orion“超大规模AI模型:100万亿参数开启“科学家AI“新纪元
大数据·人工智能·microsoft
拓端研究室2 小时前
2025母婴用品双11营销解码与AI应用洞察报告|附40+份报告PDF、数据、绘图模板汇总下载
大数据·人工智能
GOATLong2 小时前
git使用
大数据·c语言·c++·git·elasticsearch
hans汉斯3 小时前
【计算机科学与应用】基于BERT与DeepSeek大模型的智能舆论监控系统设计
大数据·人工智能·深度学习·算法·自然语言处理·bert·去噪
sensen_kiss4 小时前
INT303 Big Data Analysis 大数据分析 Pt.3 数据挖掘(Data Mining)
大数据·数据挖掘·数据分析
雪碧聊技术5 小时前
爬虫是什么?
大数据·爬虫·python·数据分析
anscos6 小时前
庭田科技亮相成都复材盛会,以仿真技术赋能产业革新
大数据·人工智能·科技
少废话h6 小时前
Spark 中数据读取方式详解:SparkSQL(DataFrame)与 SparkCore(RDD)方法对比及实践
大数据·sql·spark
大千AI助手7 小时前
分布式奇异值分解(SVD)详解
人工智能·分布式·spark·奇异值分解·svd·矩阵分解·分布式svd