hive安装步骤

centos7安装hive,hive版本3.1.2

一、环境准备

JDK版本:jdk-8u381

Hadoop版本:hadoop-3.1.3

MySQL版本:8.0.34

二、hive安装步骤

1.解压

将压缩包复制到/opt/software目录下,并解压至/opt/module/目录

tar -zxf ./apache-hive-3.1.2-bin.tar.gz -C /opt/module/

2.修改文件名

进入/opt/module/目录,将apache-hive-3.1.2-bin改为hive312

cd /opt/module/

mv ./apache-hive-3.1.2-bin/ hive312

3.配置环境变量

修改/etc/profile文件

vim /etc/profile

在最下方加入

#hive

export HIVE_HOME=/opt/module/hive312

export PATH=HIVE_HOME/bin:PATH

改完文件保存并退出,source环境变量

source /etc/profile

4.修改配置文件

进入/opt/module/hive312/conf/目录

cd /opt/module/hive312/conf/

将模板文件hive-default.xml.template改名为hive-default.xml

mv hive-default.xml.template hive-default.xml

创建hive-site.xml文件

vim ./hive-site.xml

XML 复制代码
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
<!-- hdfs仓库路径 -->
  <property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/hive312/warehouse</value>
  </property>
<!-- metastore源数据库类型-->
  <property>
    <name>hive.metastore.db.type</name>
    <value>mysql</value>
  </property>
<!-- 连接mysql字符串-->
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://192.168.153.135:3306/hive135?createDatabaseIfNotExist=true</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.cj.jdbc.Driver</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
  </property>
<!-- 关闭schema验证-->
  <property>
    <name>hive.metastore.schema.verification</name>
    <value>false</value>
  </property>
<!-- 提示当前库名-->
  <property>
    <name>hive.cli.print.current.db</name>
    <value>true</value>
  </property>
<!-- 查询输出显示列名-->
  <property>
    <name>hive.cli.print.header</name>
    <value>true</value>
  </property>
</configuration>

5.拷贝驱动

将MySQL8的驱动拷贝到/opt/module/hive312/lib目录下

删除lib目录下的guava-19.0.jar

rm -rf ./guava-19.0.jar

将/opt/module/hadoop-3.1.3/share/hadoop/common/lib中guava-27.0-jre.jar拷贝至/opt/module/hive312/lib目录(当前目录)

cp /opt/module/hadoop-3.1.3/share/hadoop/common/lib/guava-27.0-jre.jar ./

6.初始化hive

schematool -dbType mysql -initSchema

输入hive进入默认库

开启元数据服务

nohup hive --service metastore &

开启hive远程服务

nohup hive --service hiveserver2 &

启动beeline客户端

beeline -u jdbc:hive2://localhost:10000

相关推荐
舒一笑21 分钟前
如何优雅统计知识库文件个数与子集下不同文件夹文件个数
后端·mysql·程序员
IT果果日记22 分钟前
flink+dolphinscheduler+dinky打造自动化数仓平台
大数据·后端·flink
chenglin01624 分钟前
ES_预处理
大数据·elasticsearch·jenkins
AWS官方合作商1 小时前
零性能妥协:Gearbox Entertainment 通过 AWS 和 Perforce 实现远程开发革命
大数据·云计算·aws
武子康2 小时前
大数据-75 Kafka 高水位线 HW 与日志末端 LEO 全面解析:副本同步与消费一致性核心
大数据·后端·kafka
一飞大数据2 小时前
一文搞懂Flink时间语义
大数据
Leiwenti3 小时前
MySQL高阶篇-数据库优化
数据结构·数据库·mysql
chenglin0163 小时前
ES_文档
大数据·elasticsearch·jenkins
不辉放弃3 小时前
大数据仓库分层
大数据·数据仓库
NightDW3 小时前
连续周更任务模块的设计与实现
java·后端·mysql