Spark整合hive的时候出错

Spark整合hive的时候
连接Hdfs不从我hive所在的机器上找,而是去连接我的集群里的另外两台机器
但是我的集群没有开
所以下面就一直在retry

猜测:

出现这个错误的原因可能与core-site.xml和hdfs-site.xml有关,因为这里面配置了集群的namenode信息

解决方案:

我新建了一个项目,里面没有core-site.xml和hdfs-site.xml
只放进去一个hive-site.xml

错误原因:

我的hive-site.xml中没有图片中的三个配置,加上这三个配置就好了

相关推荐
Dobby_056 分钟前
【Hadoop】分布式文件系统 HDFS
大数据·hadoop·分布式
哈哈很哈哈9 分钟前
Spark 核心 RDD详解
大数据·分布式·spark·scala
智海观潮11 分钟前
Spark广播变量HttpBroadcast和TorrentBroadcast对比
大数据·spark
项目題供诗14 分钟前
Hadoop(十一)
大数据·hadoop·分布式
青云交2 小时前
Java 大视界 -- Java 大数据在智能家居场景联动与用户行为模式挖掘中的应用
java·大数据·智能家居·边缘计算·户型适配·行为挖掘·场景联动
shinelord明2 小时前
【数据行业发展】可信数据空间~数据价值的新型基础设施
大数据·架构·云计算·创业创新
健康有益科技2 小时前
家庭健康智能终端:解锁智能家居时代的健康管理
大数据·软件工程·智能家居·健康医疗
MXsoft6183 小时前
破解多校区高校运维困局,协同效率提升60%的智能运维方案
大数据
StarPrayers.4 小时前
PySpark基础知识(python)
python·数据分析·spark
币须赢4 小时前
英伟达Thor芯片套件9月发货 “物理AI”有哪些?
大数据·人工智能