Centos7,搭建Hive3.1.3数据库

1. 下载

下载:https://archive.apache.org/dist/hive/hive-3.1.3/

2. 准备

2.1 解压

将下载的压缩包解压到指定目录,并改个简单的名字

shell 复制代码
tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /opt/module/
cd /opt/module/
mv apache-hive-3.1.3-bin hive-3.1.3

2.2 Hadoop准备

提前在 Hadoop HDFS 中提前创建 /user 目录,并授权

Hadoop的搭建可以参考:https://blog.csdn.net/wanzijy/article/details/156113091

shell 复制代码
hdfs dfs -mkdir -p /user/hive/warehouse
hdfs dfs -chmod -R 777 /user

2.3 mysql准备

下载 mysql 连接 java 的 jar 包:https://downloads.mysql.com/archives/get/p/3/file/mysql-connector-j-8.0.33.tar.gz

解压后,将这个包放到 Hive 的 lib 目录

shell 复制代码
tar -zxvf mysql-connector-j-8.0.33.tar.gz -C /opt/module/
cp mysql-connector-j-8.0.33.jar /opt/module/hive-3.1.3/lib/

提前在 mysql 建好名为 Hive 的数据库

3. 修改配置文件

shell 复制代码
cd /opt/module/hive-3.1.3/conf/

3.1 hive-env.sh

shell 复制代码
cp hive-env.sh.template hive-env.sh
vim hive-env.sh
xml 复制代码
export HADOOP_HOME=/opt/module/hadoop-3.3.6
export HIVE_CONF_DIR=/opt/module/hive-3.1.3/conf
export HIVE_AUX_JARS_PATH=/opt/module/hive-3.1.3/lib

3.2 hive-site.xml

shell 复制代码
vim hive-site.xml

因为是本地学习测试使用,所以这次连接数据库时,就直接使用 root 了

大家也可以建 Hive 数据库的专属用户,然后授权,使用专属用户去连接

增加配置

xml 复制代码
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://192.168.195.10:3306/hive?useSSL=false&amp;allowPublicKeyRetrieval=true</value>
    <description>mysql链接地址</description>
</property>

<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.cj.jdbc.Driver</value>
    <description>mysql驱动</description>
</property>

<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
    <description>mysql用户名</description>
</property>

<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>root666*</value>
    <description>mysql密码</description>
</property>

<property>
    <name>system:java.io.tmpdir</name>
    <value>/opt/module/hive-3.1.3/tmp</value>
    <description>修改生成的临时文件目录</description>
</property>

<property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
    <description>Hive 数据仓库目录</description>
</property>

3.3 /etc/profile

配置 Hive 的环境变量

shell 复制代码
export HIVE_HOME=/opt/module/hive-3.1.3/
export PATH=$PATH:$HIVE_HOME/bin
source /etc/profile

4. 初始化

shell 复制代码
cd /opt/module/hive-3.1.3/bin
schematool -dbType mysql -initSchema

然后就能看到初始化好的表了

相关推荐
字节跳动数据平台6 分钟前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
全栈老石15 分钟前
拆解低代码引擎核心:元数据驱动的"万能表"架构
数据库·低代码
得物技术1 小时前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康3 小时前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
倔强的石头_19 小时前
kingbase备份与恢复实战(二)—— sys_dump库级逻辑备份与恢复(Windows详细步骤)
数据库
武子康1 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天1 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
jiayou642 天前
KingbaseES 实战:深度解析数据库对象访问权限管理
数据库
李广坤3 天前
MySQL 大表字段变更实践(改名 + 改类型 + 改长度)
数据库
武子康3 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive