hive安装

文章目录

1、下载hive

https://dlcdn.apache.org/hive/hive-3.1.3/

2、安装hadoop(略)

3、安装mysql(略)

4、安装

解压

bash 复制代码
tar -zvxf apache-hive-3.1.3-bin.tar.gz
mv apache-hive-3.1.3-bin hive313

修改环境变量

bash 复制代码
vi /etc/profile
添加
export HIVE_HOME=/opt/soft/hive/hive313
export PATH=$PATH:$HIVE_HOME/bin

在hive313/conf下新建hive-site.xml文件

bash 复制代码
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/opt/soft/hive/hive313/data</value>
  </property>
  <property>
    <name>hive.metastore.db.type</name>
    <value>mysql</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://172.16.10.169:3306/hive_meta?createDatabaseIfNotExist=true&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.cj.jdbc.Driver</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>root</value>
  </property>
  <property>
    <name>hive.metastore.schema.verification</name>
    <value>false</value>
    <description>关闭schema验证</description>
  </property>
  <property>
    <name>hive.cli.print.current.db</name>
    <value>true</value>
    <description>提示当前数据库名</description>
  </property>
  <property>
    <name>hive.cli.print.header</name>
    <value>true</value>
    <description>查询输出时带列名一起输出</description>
  </property>
</configuration>

下载一个mysql的驱动放入hive313/lib下

执行数据元初始化

bash 复制代码
schematool -dbType mysql -initSchema

启动,执行命令:

bash 复制代码
nohup hive --service hiveserver2 &
bash 复制代码
beeline -u jdbc:hive2://172.16.10.169:10000

访问http://:10002

如果创建表的注释有乱码问题,修改mysql元数据表中COLUMN_V2、TABLE_PARAMS表中对应列的编码格式为UTF8

停止的脚本为stop-hive.sh

bash 复制代码
#!/bin/bash
process="hive"
PID=$(ps x | grep $process | grep '/bin/java' | grep -v grep | awk '{print $1}')
ps -ef | grep $process | grep '/bin/java' | grep -v grep | awk '{print $2}' | xargs kill -9

Dbeaver连接hive的方式:

bash 复制代码
https://blog.csdn.net/m0_62617719/article/details/128338137
相关推荐
Lx3526 小时前
复杂MapReduce作业设计:多阶段处理的最佳实践
大数据·hadoop
Lx3521 天前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
Lx3522 天前
Hadoop容错机制深度解析:保障作业稳定运行
大数据·hadoop
IT毕设梦工厂3 天前
大数据毕业设计选题推荐-基于大数据的客户购物订单数据分析与可视化系统-Hadoop-Spark-数据可视化-BigData
大数据·hadoop·数据分析·spark·毕业设计·源码·bigdata
大数据CLUB3 天前
基于spark的澳洲光伏发电站选址预测
大数据·hadoop·分布式·数据分析·spark·数据开发
计算机编程小央姐3 天前
跟上大数据时代步伐:食物营养数据可视化分析系统技术前沿解析
大数据·hadoop·信息可视化·spark·django·课程设计·食物
IT学长编程3 天前
计算机毕业设计 基于Hadoop的健康饮食推荐系统的设计与实现 Java 大数据毕业设计 Hadoop毕业设计选题【附源码+文档报告+安装调试】
java·大数据·hadoop·毕业设计·课程设计·推荐算法·毕业论文
Lx3523 天前
Hadoop数据一致性保障:处理分布式系统常见问题
大数据·hadoop
IT学长编程3 天前
计算机毕业设计 基于Hadoop豆瓣电影数据可视化分析设计与实现 Python 大数据毕业设计 Hadoop毕业设计选题【附源码+文档报告+安装调试
大数据·hadoop·python·django·毕业设计·毕业论文·豆瓣电影数据可视化分析