Spark整合hive的时候
连接Hdfs不从我hive所在的机器上找,而是去连接我的集群里的另外两台机器
但是我的集群没有开
所以下面就一直在retry
猜测:
出现这个错误的原因可能与core-site.xml和hdfs-site.xml有关,因为这里面配置了集群的namenode信息
解决方案:
我新建了一个项目,里面没有core-site.xml和hdfs-site.xml
只放进去一个hive-site.xml
错误原因:
我的hive-site.xml中没有图片中的三个配置,加上这三个配置就好了