hive安装步骤

centos7安装hive,hive版本3.1.2

一、环境准备

JDK版本:jdk-8u381

Hadoop版本:hadoop-3.1.3

MySQL版本:8.0.34

二、hive安装步骤

1.解压

将压缩包复制到/opt/software目录下,并解压至/opt/module/目录

tar -zxf ./apache-hive-3.1.2-bin.tar.gz -C /opt/module/

2.修改文件名

进入/opt/module/目录,将apache-hive-3.1.2-bin改为hive312

cd /opt/module/

mv ./apache-hive-3.1.2-bin/ hive312

3.配置环境变量

修改/etc/profile文件

vim /etc/profile

在最下方加入

#hive

export HIVE_HOME=/opt/module/hive312

export PATH=HIVE_HOME/bin:PATH

改完文件保存并退出,source环境变量

source /etc/profile

4.修改配置文件

进入/opt/module/hive312/conf/目录

cd /opt/module/hive312/conf/

将模板文件hive-default.xml.template改名为hive-default.xml

mv hive-default.xml.template hive-default.xml

创建hive-site.xml文件

vim ./hive-site.xml

XML 复制代码
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
<!-- hdfs仓库路径 -->
  <property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/hive312/warehouse</value>
  </property>
<!-- metastore源数据库类型-->
  <property>
    <name>hive.metastore.db.type</name>
    <value>mysql</value>
  </property>
<!-- 连接mysql字符串-->
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://192.168.153.135:3306/hive135?createDatabaseIfNotExist=true</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.cj.jdbc.Driver</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
  </property>
<!-- 关闭schema验证-->
  <property>
    <name>hive.metastore.schema.verification</name>
    <value>false</value>
  </property>
<!-- 提示当前库名-->
  <property>
    <name>hive.cli.print.current.db</name>
    <value>true</value>
  </property>
<!-- 查询输出显示列名-->
  <property>
    <name>hive.cli.print.header</name>
    <value>true</value>
  </property>
</configuration>

5.拷贝驱动

将MySQL8的驱动拷贝到/opt/module/hive312/lib目录下

删除lib目录下的guava-19.0.jar

rm -rf ./guava-19.0.jar

将/opt/module/hadoop-3.1.3/share/hadoop/common/lib中guava-27.0-jre.jar拷贝至/opt/module/hive312/lib目录(当前目录)

cp /opt/module/hadoop-3.1.3/share/hadoop/common/lib/guava-27.0-jre.jar ./

6.初始化hive

schematool -dbType mysql -initSchema

输入hive进入默认库

开启元数据服务

nohup hive --service metastore &

开启hive远程服务

nohup hive --service hiveserver2 &

启动beeline客户端

beeline -u jdbc:hive2://localhost:10000

相关推荐
武子康30 分钟前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
Nyarlathotep01131 小时前
SQL的事务控制
sql·mysql
用户86178277365182 小时前
MySQL 8.0从库宕机排查实录:中继日志膨胀引发的连锁故障复盘
mysql
字节跳动数据平台21 小时前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
随风飘的云1 天前
mysql的innodb引擎对可重复读做了那些优化,可以避免幻读
mysql
武子康1 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台2 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术2 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康2 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康3 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive