Centos7,搭建Hive3.1.3数据库

1. 下载

下载:https://archive.apache.org/dist/hive/hive-3.1.3/

2. 准备

2.1 解压

将下载的压缩包解压到指定目录,并改个简单的名字

shell 复制代码
tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /opt/module/
cd /opt/module/
mv apache-hive-3.1.3-bin hive-3.1.3

2.2 Hadoop准备

提前在 Hadoop HDFS 中提前创建 /user 目录,并授权

Hadoop的搭建可以参考:https://blog.csdn.net/wanzijy/article/details/156113091

shell 复制代码
hdfs dfs -mkdir -p /user/hive/warehouse
hdfs dfs -chmod -R 777 /user

2.3 mysql准备

下载 mysql 连接 java 的 jar 包:https://downloads.mysql.com/archives/get/p/3/file/mysql-connector-j-8.0.33.tar.gz

解压后,将这个包放到 Hive 的 lib 目录

shell 复制代码
tar -zxvf mysql-connector-j-8.0.33.tar.gz -C /opt/module/
cp mysql-connector-j-8.0.33.jar /opt/module/hive-3.1.3/lib/

提前在 mysql 建好名为 Hive 的数据库

3. 修改配置文件

shell 复制代码
cd /opt/module/hive-3.1.3/conf/

3.1 hive-env.sh

shell 复制代码
cp hive-env.sh.template hive-env.sh
vim hive-env.sh
xml 复制代码
export HADOOP_HOME=/opt/module/hadoop-3.3.6
export HIVE_CONF_DIR=/opt/module/hive-3.1.3/conf
export HIVE_AUX_JARS_PATH=/opt/module/hive-3.1.3/lib

3.2 hive-site.xml

shell 复制代码
vim hive-site.xml

因为是本地学习测试使用,所以这次连接数据库时,就直接使用 root 了

大家也可以建 Hive 数据库的专属用户,然后授权,使用专属用户去连接

增加配置

xml 复制代码
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://192.168.195.10:3306/hive?useSSL=false&amp;allowPublicKeyRetrieval=true</value>
    <description>mysql链接地址</description>
</property>

<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.cj.jdbc.Driver</value>
    <description>mysql驱动</description>
</property>

<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
    <description>mysql用户名</description>
</property>

<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>root666*</value>
    <description>mysql密码</description>
</property>

<property>
    <name>system:java.io.tmpdir</name>
    <value>/opt/module/hive-3.1.3/tmp</value>
    <description>修改生成的临时文件目录</description>
</property>

<property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
    <description>Hive 数据仓库目录</description>
</property>

3.3 /etc/profile

配置 Hive 的环境变量

shell 复制代码
export HIVE_HOME=/opt/module/hive-3.1.3/
export PATH=$PATH:$HIVE_HOME/bin
source /etc/profile

4. 初始化

shell 复制代码
cd /opt/module/hive-3.1.3/bin
schematool -dbType mysql -initSchema

然后就能看到初始化好的表了

相关推荐
lili-felicity8 小时前
CANN异步推理实战:从Stream管理到流水线优化
大数据·人工智能
wjhx9 小时前
QT中对蓝牙权限的申请,整理一下
java·数据库·qt
2501_933670799 小时前
2026 高职大数据专业考什么证书对就业有帮助?
大数据
冰暮流星9 小时前
javascript之二重循环练习
开发语言·javascript·数据库
xiaobaibai1539 小时前
营销自动化终极形态:AdAgent 自主闭环工作流全解析
大数据·人工智能·自动化
星辰_mya9 小时前
Elasticsearch更新了分词器之后
大数据·elasticsearch·搜索引擎
xiaobaibai1539 小时前
决策引擎深度拆解:AdAgent 用 CoT+RL 实现营销自主化决策
大数据·人工智能
万岳科技系统开发9 小时前
食堂采购系统源码库存扣减算法与并发控制实现详解
java·前端·数据库·算法
悟纤9 小时前
学习与专注音乐流派 (Study & Focus Music):AI 音乐创作终极指南 | Suno高级篇 | 第33篇
大数据·人工智能·深度学习·学习·suno·suno api
冉冰学姐10 小时前
SSM智慧社区管理系统jby69(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面
数据库·管理系统·智慧社区·ssm 框架