hive安装步骤

centos7安装hive,hive版本3.1.2

一、环境准备

JDK版本:jdk-8u381

Hadoop版本:hadoop-3.1.3

MySQL版本:8.0.34

二、hive安装步骤

1.解压

将压缩包复制到/opt/software目录下,并解压至/opt/module/目录

tar -zxf ./apache-hive-3.1.2-bin.tar.gz -C /opt/module/

2.修改文件名

进入/opt/module/目录,将apache-hive-3.1.2-bin改为hive312

cd /opt/module/

mv ./apache-hive-3.1.2-bin/ hive312

3.配置环境变量

修改/etc/profile文件

vim /etc/profile

在最下方加入

#hive

export HIVE_HOME=/opt/module/hive312

export PATH=HIVE_HOME/bin:PATH

改完文件保存并退出,source环境变量

source /etc/profile

4.修改配置文件

进入/opt/module/hive312/conf/目录

cd /opt/module/hive312/conf/

将模板文件hive-default.xml.template改名为hive-default.xml

mv hive-default.xml.template hive-default.xml

创建hive-site.xml文件

vim ./hive-site.xml

XML 复制代码
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
<!-- hdfs仓库路径 -->
  <property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/hive312/warehouse</value>
  </property>
<!-- metastore源数据库类型-->
  <property>
    <name>hive.metastore.db.type</name>
    <value>mysql</value>
  </property>
<!-- 连接mysql字符串-->
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://192.168.153.135:3306/hive135?createDatabaseIfNotExist=true</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.cj.jdbc.Driver</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
  </property>
<!-- 关闭schema验证-->
  <property>
    <name>hive.metastore.schema.verification</name>
    <value>false</value>
  </property>
<!-- 提示当前库名-->
  <property>
    <name>hive.cli.print.current.db</name>
    <value>true</value>
  </property>
<!-- 查询输出显示列名-->
  <property>
    <name>hive.cli.print.header</name>
    <value>true</value>
  </property>
</configuration>

5.拷贝驱动

将MySQL8的驱动拷贝到/opt/module/hive312/lib目录下

删除lib目录下的guava-19.0.jar

rm -rf ./guava-19.0.jar

将/opt/module/hadoop-3.1.3/share/hadoop/common/lib中guava-27.0-jre.jar拷贝至/opt/module/hive312/lib目录(当前目录)

cp /opt/module/hadoop-3.1.3/share/hadoop/common/lib/guava-27.0-jre.jar ./

6.初始化hive

schematool -dbType mysql -initSchema

输入hive进入默认库

开启元数据服务

nohup hive --service metastore &

开启hive远程服务

nohup hive --service hiveserver2 &

启动beeline客户端

beeline -u jdbc:hive2://localhost:10000

相关推荐
忆~遂愿14 分钟前
CANN ATVOSS 算子库深度解析:基于 Ascend C 模板的 Vector 算子子程序化建模与融合优化机制
大数据·人工智能
心疼你的一切24 分钟前
模态交响:CANN驱动的跨模态AIGC统一架构
数据仓库·深度学习·架构·aigc·cann
那个村的李富贵1 小时前
解锁CANN仓库核心能力:50行代码搭建国产化AIGC图片风格迁移神器
mysql·信息可视化·aigc·cann
心疼你的一切1 小时前
解锁CANN仓库核心能力:从零搭建AIGC轻量文本生成实战(附代码+流程图)
数据仓库·深度学习·aigc·流程图·cann
艾莉丝努力练剑1 小时前
【Linux:文件】Ext系列文件系统(初阶)
大数据·linux·运维·服务器·c++·人工智能·算法
lili-felicity2 小时前
CANN异步推理实战:从Stream管理到流水线优化
大数据·人工智能
秃了也弱了。3 小时前
StarRocks:高性能分析型数据仓库
数据仓库
2501_933670793 小时前
2026 高职大数据专业考什么证书对就业有帮助?
大数据
xiaobaibai1533 小时前
营销自动化终极形态:AdAgent 自主闭环工作流全解析
大数据·人工智能·自动化
星辰_mya3 小时前
Elasticsearch更新了分词器之后
大数据·elasticsearch·搜索引擎