DataGrip远程连接Spark-sql,和使用beeline命令来连接hive

将spark-sql与hive整合后,就可以在命令行直接进入spark-sql中操作hive的数据,所做的操作hive里面都会同步。但是于此同时也发现了好多问题,先说明如何用datagrip连接spark-sql

一、连接准备

bash 复制代码
#先启动Hadoop集群

start-all.sh

#因为与sparksql整合,所以每次要先启动元数据

nohup hive --service metastore >> /usr/local/soft/hive-3.1.3/metastore.log 2>&1 &

#启动spark-thriftserver 服务

cd /usr/local/soft/spark-3.1.3/sbin/

./start-thriftserver.sh --hiveconf hive.server2.thrift.port=10000

查看结果如下:

二、开始连接

1、选择数据源

2、配置驱动

3、开始连接

4、连接成功

三、解决的问题

1、整合步骤:

SparkSQL整合Hive-CSDN博客https://blog.csdn.net/ABU009/article/details/143026858

第一个问题:已解决

整合后如何使用beeline进入hive ?

spark-sql与hive元数据整合后,只能用命令 hive 进入 Hive的客户端,无法使用beeline连接

,我也打开了 hiveserver2的服务,还是显示拒绝连接,试了好多遍,还是无法连接

命令操作如下:

bash 复制代码
#先启动元数据
nohup hive --service metastore >> /usr/local/soft/hive-3.1.3/metastore.log 2>&1 &

#在启动hiverserver2
nohup hiveserver2 >> /usr/local/soft/hive-3.1.1/hiveserver2.log 2>&1 &

#使用beeline
beeline -u jdbc:hive2://master:10000/

#或者使用下面的
beeline
!connect jdbc:hive2://master:10000/

显示结果如下:

2、成功解决

当spark sql 与hive整合后,hiveserver2的服务就对hive不起作用了,那么beeline也就无法使用,这个时候我们只需要启动spark-thriftserver的服务,beeline就能和之前一样正常使用,成功进入hive

操作命令:

bash 复制代码
#因为与sparksql整合,所以每次要先启动元数据

nohup hive --service metastore >> /usr/local/soft/hive-3.1.3/metastore.log 2>&1 &

#启动spark-thriftserver 服务

cd /usr/local/soft/spark-3.1.3/sbin/

./start-thriftserver.sh --hiveconf hive.server2.thrift.port=10000

#然后再使用beeline
beeline -u jdbc:hive2://master:10000/

beeline命令成功进入hive客户端

第二个问题:未解决

2.1打开datagrip,发现每次打开之前hive里面存在的表,以及新建的表,每次点击查看都会出现一个红色的报错提示,虽然不影响写sql,但是每次查看表就出现,就会很烦。

2.2 与此同时,新建查询表时都显示未命名数据库,并且切换数据库会报错,不知道怎样解决

相关推荐
2501_941404318 小时前
绿色科技与可持续发展:科技如何推动环境保护与资源管理
大数据·人工智能
swanwei9 小时前
量子科技对核心产业的颠覆性影响及落地时间表(全文2500字)
大数据·网络·人工智能·程序人生·量子计算
isNotNullX13 小时前
数据中台有什么用?数据仓库和数据中台怎么选?
大数据·数据仓库·人工智能·数据中台
杨云龙UP13 小时前
【MySQL逻辑备份】基于mysqldump的MySQL 8.0全量逻辑备份脚本
linux·运维·数据库·sql·mysql·mssql
roman_日积跬步-终至千里13 小时前
【AI Engineering】Should I build this AI application?—AI应用决策框架与实践指南
大数据·人工智能
DolphinScheduler社区14 小时前
图解 Apache DolphinScheduler 如何配置飞书告警
java·大数据·开源·飞书·告警·任务调度·海豚调度
稚辉君.MCA_P8_Java14 小时前
通义千问 SpringBoot 性能优化全景设计(面向 Java 开发者)
大数据·hadoop·spring boot·分布式·架构
SeaTunnel14 小时前
Apache SeaTunnel 如何将 CDC 数据流转换为 Append-Only 模式?
大数据·开源·apache·开发者·seatunnel·转换插件
万山y14 小时前
git remote add做了什么
大数据·git·elasticsearch
百度Geek说14 小时前
百度大数据成本治理实践
hadoop·spark