Centos7,搭建Hive3.1.3数据库

1. 下载

下载:https://archive.apache.org/dist/hive/hive-3.1.3/

2. 准备

2.1 解压

将下载的压缩包解压到指定目录,并改个简单的名字

shell 复制代码
tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /opt/module/
cd /opt/module/
mv apache-hive-3.1.3-bin hive-3.1.3

2.2 Hadoop准备

提前在 Hadoop HDFS 中提前创建 /user 目录,并授权

Hadoop的搭建可以参考:https://blog.csdn.net/wanzijy/article/details/156113091

shell 复制代码
hdfs dfs -mkdir -p /user/hive/warehouse
hdfs dfs -chmod -R 777 /user

2.3 mysql准备

下载 mysql 连接 java 的 jar 包:https://downloads.mysql.com/archives/get/p/3/file/mysql-connector-j-8.0.33.tar.gz

解压后,将这个包放到 Hive 的 lib 目录

shell 复制代码
tar -zxvf mysql-connector-j-8.0.33.tar.gz -C /opt/module/
cp mysql-connector-j-8.0.33.jar /opt/module/hive-3.1.3/lib/

提前在 mysql 建好名为 Hive 的数据库

3. 修改配置文件

shell 复制代码
cd /opt/module/hive-3.1.3/conf/

3.1 hive-env.sh

shell 复制代码
cp hive-env.sh.template hive-env.sh
vim hive-env.sh
xml 复制代码
export HADOOP_HOME=/opt/module/hadoop-3.3.6
export HIVE_CONF_DIR=/opt/module/hive-3.1.3/conf
export HIVE_AUX_JARS_PATH=/opt/module/hive-3.1.3/lib

3.2 hive-site.xml

shell 复制代码
vim hive-site.xml

因为是本地学习测试使用,所以这次连接数据库时,就直接使用 root 了

大家也可以建 Hive 数据库的专属用户,然后授权,使用专属用户去连接

增加配置

xml 复制代码
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://192.168.195.10:3306/hive?useSSL=false&amp;allowPublicKeyRetrieval=true</value>
    <description>mysql链接地址</description>
</property>

<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.cj.jdbc.Driver</value>
    <description>mysql驱动</description>
</property>

<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
    <description>mysql用户名</description>
</property>

<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>root666*</value>
    <description>mysql密码</description>
</property>

<property>
    <name>system:java.io.tmpdir</name>
    <value>/opt/module/hive-3.1.3/tmp</value>
    <description>修改生成的临时文件目录</description>
</property>

<property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
    <description>Hive 数据仓库目录</description>
</property>

3.3 /etc/profile

配置 Hive 的环境变量

shell 复制代码
export HIVE_HOME=/opt/module/hive-3.1.3/
export PATH=$PATH:$HIVE_HOME/bin
source /etc/profile

4. 初始化

shell 复制代码
cd /opt/module/hive-3.1.3/bin
schematool -dbType mysql -initSchema

然后就能看到初始化好的表了

相关推荐
a努力。6 小时前
国家电网Java面试被问:混沌工程在分布式系统中的应用
java·开发语言·数据库·git·mysql·面试·职场和发展
li_wen016 小时前
文件系统(八):Linux JFFS2文件系统工作原理、优势与局限
大数据·linux·数据库·文件系统·jffs2
wWYy.7 小时前
详解redis(16):缓存击穿
数据库·redis·缓存
JosieBook7 小时前
【数据库】Oracle迁移至KingbaseES:挑战、策略与最佳实践
数据库·oracle
一休哥助手8 小时前
时序数据库选型指南:从核心考量到四大主流数据库深度解析
数据库·时序数据库
昨夜见军贴06168 小时前
IACheck AI审核在生产型企业质量控制记录中的实践探索——全面赋能有关物质研究合规升级
大数据·人工智能
盖雅工场8 小时前
驱动千店销售转化提升10%:3C零售门店的人效优化实战方案
大数据·人工智能·零售·数字化管理·智能排班·零售排班
发哥来了8 小时前
【AI视频创作】【评测】【核心能力与成本效益】
大数据·人工智能
你才是臭弟弟9 小时前
什么是真正的“数据湖”(核心)
大数据
Mr__Miss9 小时前
说下Mysql的MVCC机制
数据库·mysql