【大数据进阶第三阶段之Hive学习笔记】Hive安装

目录

1、环境准备

2、下载安装

3、配置环境变量

4、配置文件

4.1、配置hive-env.sh

​编辑4.2、配置hive-site.xml

5、上传配置jar

6、启动


1、环境准备

安装hadoop 以及 zookeeper、mysql

【大数据进阶第二阶段之Hadoop学习笔记】Hadoop 运行环境搭建-CSDN博客

《zookeeper的安装与配置》自行百度

《Linux环境配置MySQL》自行百度

2、下载安装

CSDN下载:https://download.csdn.net/download/liguohuaty/88702104

Hive官网下载:Downloads (apache.org)

将压缩包上传到opt文件夹,并解压tar -zxvf hive-1.1.0-cdh5.14.2.tar.gz

将文件夹改名为hive:mv hive-1.1.0-cdh5.14.2 hive

3、配置环境变量

输入:vi /etc/profile

插入:

复制代码
export HIVE_HOME=/opt/hive
export PATH=$HIVE_HOME/bin

输入source /etc/profile使环境变量生效

4、配置文件

进入hive,添加文件夹 mkdir warehouse

进入hive的conf文件夹:``cd /opt/hive/conf

4.1、配置hive-env.sh

修改: mv hive-env.sh.template hive-env.sh

修改: vi hive-env.sh

插入

复制代码
export HADOOP_HOME=/opt/hadoop
export HIVE_CONF_DIR=/opt/hive/conf
export HIVE_AUX_JARS_PATH=/opt/hive/lib
export JAVA_HOME=/opt/jdk1.8.0_221

**4.2、**配置hive-site.xml

添加并修改 vi hive-site.xml

插入

复制代码
<configuration></configuration>

插入

复制代码
<!-- 在configuration中加入配置 -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/opt/hive/warehouse</value>
</property>
<property>
<name>hive.metastore.local</name>
<value>true</value>
</property>
<!-- 如果是远程mysql数据库的话需要在这里写入远程的IP或hosts -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://127.0.0.1:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>ok</value>
</property>

5、上传配置jar

mysql-connector-java-5.1.0-bin.jar 下载地址:

将mysql-connector-java-5.1.0-bin 上传到hive的lib文件夹

6、启动

首先需要格式化:schematool -dbType mysql -initSchema

直接输入:hive 进入

相关推荐
武子康8 小时前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
SelectDB1 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康2 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
IvanCodes2 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康3 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
字节跳动数据平台3 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康4 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台4 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术5 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康5 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive