Hive配置JDBC连接

Hive搭建完成后 可以配置JDBC连接

1.修改Hadoop配置文件

复制代码
cd /usr/local/soft/hadoop-2.7.6/etc/hadoopvim core-site.xml添加<property><name>hadoop.proxyuser.root.hosts</name><value>*</value></property><property><name>hadoop.proxyuser.root.groups</name><value>*</value></property>

2.启动Hive的JDBC连接

复制代码
start-all.shzkServer.sh start (三台机器)master启动hiveserver2hive --service hiveserver2查看进程 netstat -nplt | grep 10000HIVE连接JDBCbeeline -u jdbc:hive2://master:10000 -n root
相关推荐
小邓睡不饱耶1 天前
Hadoop 3.x 企业级实战指南:从纠删码到云原生容器化
大数据·hadoop·云原生
makabalala2 天前
如何利用YashanDB进行数据仓库构建
数据仓库
禅与计算机程序设计艺术2 天前
了解NoSQL的数据仓库和ETL
数据库·数据仓库·nosql·etl
好学且牛逼的马2 天前
从“配置地狱“到“云原生时代“:Spring Boot 1.x到4.x演进全记录与核心知识点详解
hive·spring boot·云原生
派可数据BI可视化3 天前
一文读懂系列:数据仓库为什么分层,分几层?数仓建模方法有哪些
大数据·数据仓库·信息可视化·spark·商业智能bi
Light603 天前
不止于名:领码 SPARK 如何“链”动数据仓库、数据湖、中台与湖仓一体新纪元
大数据·数据仓库·数据湖·ipaas·湖仓一体·数据中台·领码 spark
郑小憨3 天前
FlinkSQL窗口函数TUMBLE、SESSION 和 HOP的区别
大数据·数据仓库·sql·flink·database
码字的字节3 天前
锚点模型:数据仓库中的高度可扩展建模技术详解
大数据·数据仓库·spark
Agentic AI人工智能与大数据3 天前
大数据领域数据仓库的ETL任务优化
大数据·数据仓库·ai·etl