Spark整合hive的时候出错

Spark整合hive的时候
连接Hdfs不从我hive所在的机器上找,而是去连接我的集群里的另外两台机器
但是我的集群没有开
所以下面就一直在retry

猜测:

出现这个错误的原因可能与core-site.xml和hdfs-site.xml有关,因为这里面配置了集群的namenode信息

解决方案:

我新建了一个项目,里面没有core-site.xml和hdfs-site.xml
只放进去一个hive-site.xml

错误原因:

我的hive-site.xml中没有图片中的三个配置,加上这三个配置就好了

相关推荐
PaperData几秒前
2000-2023年地级市数字基础设施评价指标体系
大数据·网络·数据库·人工智能·数据分析·经管
Blockchain Learning11 分钟前
去中心化身份(DID)模型解析:区块链如何重塑身份管理?
大数据·去中心化·区块链
xcbrand43 分钟前
政府事业机构品牌策划公司哪家可靠
大数据·人工智能·python
程序鉴定师1 小时前
如何选择合适的深圳小程序开发公司?
大数据·小程序
晨启AI2 小时前
GPT-5.5 来了!OpenAI 最新提示词指南深度解读
大数据·人工智能·ai·提示词
地球资源数据云2 小时前
中国陆地生态系统主要植物功能特征空间分布数据
大数据·数据库·人工智能·机器学习
金智维科技官方2 小时前
AI智能体在7×24客服场景中的真实表现评估
大数据·人工智能·ai·rpa·智能体
WL_Aurora2 小时前
MapReduce经典例题【第二期】
大数据·mapreduce
二十六画生的博客2 小时前
每个subtask都提交一份快照到hdfs,会把10个小的快照合并成一个大的吗?谁来合并?
大数据·hadoop·hdfs·flink
摇滚侠2 小时前
数据同步 黑马 Elasticsearch 全套教程,黑马旅游网案例
大数据·elasticsearch·搜索引擎