# DBeaver 连接hive数仓

前提

前提是基于hadoop的hive服务已经启动,其中hive的服务包括metastore元数据服务和hiveserver2服务已经启动。hiveserver2服务在默认端口10000启动,且通过telnet xx.xx.xx.xx 10000 能通。

满足以上要求后,再可以看以下连接文档:

安装DBeaver

可以参考文章dbeaver-ultimate23.3安装注册免费试用

使用版本DBeaver Ultimate 23.3.0

连接hive

按照dbeaver 工具通用连接方式去选择apache hive,配置参数去连接,主机、端口、用户名,密码一般都未设置

测试连接,下载默认驱动,失败,连接超时。

也就是这个驱动路径无法访问。一般是由于网络限制问题导致的,github相关地址无法访问。

在网上搜索,说是使用hive安装包下的驱动hive-jdbc-4.0.0-standalone.jar,可以解决问题,正常连接。但经过尝试,还是不行。于是还是寄希望于dbeaver默认的驱动包hive-jdbc-uber-2.6.5.0-292.jar。

通过切换网络,顺利下载到默认驱动包,添加进去后,能正常连接。

附上下载链接,按需自取。

链接: https://pan.baidu.com/s/1qk3BAo91XvPAKs0ESwe8jQ 提取码: 5uge

经验总结

1、关键在于驱动下载

相关推荐
zincooo23 分钟前
Hive分区表添加字段
数据仓库·hive·hadoop
昊昊该干饭了4 小时前
数仓建模(二) 从关系型数据库到数据仓库的演变
大数据·数据仓库·数据库架构
SelectDB技术团队8 小时前
计算效率提升 10 倍,存储成本降低 60%,灵犀科技基于 Apache Doris 建设统一数据服务平台
大数据·数据库·数据仓库·数据分析·doris
B站计算机毕业设计超人9 小时前
计算机毕业设计Python+Vue.js游戏推荐系统 Steam游戏推荐系统 Django Flask 游 戏可视化 游戏数据分析 游戏大数据 爬虫
大数据·hadoop·算法·机器学习·spark·网络爬虫·数据可视化
flying robot9 小时前
Hadoop、Flink、Spark和Kafka
hadoop·flink·spark
武子康10 小时前
大数据-269 实时数仓 - DIM DW ADS 层处理 Scala实现将数据写出HBase等
java·大数据·数据仓库·后端·flink·scala·hbase
熟透的蜗牛11 小时前
大数据技术-Hadoop(四)Yarn的介绍与使用
大数据·hadoop·分布式
幽兰的天空20 小时前
Servlet中配置和使用过滤器
hive·hadoop·servlet
雪芽蓝域zzs1 天前
JavaWeb开发(五)Servlet-ServletContext
hive·hadoop·servlet
我不会敲代码a1 天前
hive on spark报错解决(基于hive-3.1.3和spark-2.3.0)
hive·hadoop·spark