Hive 单机版

Hive 安装

前提

安装 hadoop

Ubuntu 安装、配置 MySQL

安装

复制代码
sudo apt install mysql-server

MySQL 配置

假如你不知道 root 用户密码, 需要重置 root 密码

bash 复制代码
sudo passwd root

切换到 root 用户

bash 复制代码
su - root

使用命令 mysql 连接数据库

sql 复制代码
mysql

创建用户管理数据库,用户名:demo, 密码: 123456

sql 复制代码
# 创建 demo 用户来管理数据库
CREATE USER 'demo'@'%' IDENTIFIED BY '123456';

# 为用户 demo 分配权限
GRANT ALL PRIVILEGES ON *.* TO "demo"@"%" with grant option;

# 创建数据库(hive) 来存储 hive 元数据
create database hive;

# 创建用户来管理 数据库 hive
CREATE USER 'hive'@'%' IDENTIFIED BY '123456';
GRANT ALL PRIVILEGES ON hive.* TO "hive"@"%";

退出数据库

sql 复制代码
exit

退出 root 用户

bash 复制代码
exit

数据库外网访问

配置文件路径 /etc/mysql

编辑服务器配置文件

bash 复制代码
sudo vim /etc/mysql/mysql.conf.d/mysqld.cnf 

复制代码
bind-address            = 127.0.0.1

修改为

复制代码
bind-address            = 0.0.0.0

重启 mysql

bash 复制代码
sudo service mysql restart

安装 hive

bash 复制代码
# 进入 /export/softpackages/ 目录
cd /export/softpackages/

# 解压 hive
tar -xvf apache-hive-3.1.3-bin.tar.gz

# 将 hive 移动到 /export/servers
mv apache-hive-3.1.3-bin /export/servers/hive-3.1.3

编辑 /etc/profile 文件

bash 复制代码
sudo vim /etc/profile

添加以下内容

bash 复制代码
# hive 环境变量
export HIVE_HOME=/export/servers/hive-3.1.3  
export PATH=$HIVE_HOME/bin:$PATH

生效环境变量配置文件

bash 复制代码
source /etc/profile

配置 Hive

配置 MySQL 驱动

bash 复制代码
# 进入 /export/softpackages/ 目录
cd /export/softpackages/

# 复制 mysql 驱动到li目录
cp mysql-connector-j-8.0.33.jar /export/servers/hive-3.1.3/lib

hive-env.sh

bash 复制代码
cd /export/servers/hive-3.1.3/conf

cp hive-env.sh.template hive-env.sh

修改 hive-env.sh 文件

bash 复制代码
vim hive-env.sh

追加以下内容

复制代码
HADOOP_HOME=/export/servers/hadoop-3.3.6
export HIVE_CONF_DIR=/export/servers/hive-3.1.3/conf

hive-site.xml

bash 复制代码
vim hive-site.xml

内容如下

xml 复制代码
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
	<property>
		<name>javax.jdo.option.ConnectionURL</name>
		<value>jdbc:mysql://127.0.0.1:3306/hive</value>
		<description>数据库链接地址</description>
	</property>
	<property>
		<name>javax.jdo.option.ConnectionDriverName</name>
		<value>com.mysql.cj.jdbc.Driver</value>
		<description>数据库操作驱动</description>
	</property>

	<property>
		<name>javax.jdo.option.ConnectionUserName</name>
		<value>demo</value>
		<description>数据库用户名</description>
	</property>

	<property>
		<name>javax.jdo.option.ConnectionPassword</name>
		<value>123456</value>
		<description>数据库用户密码</description>
	</property>
</configuration>

初始化 hive

bash 复制代码
schematool -dbType mysql -initSchema

测试 hive shell

链接 hive

bash 复制代码
hive

退出 hive shell

sql 复制代码
exit;
相关推荐
橘子编程5 天前
Hive大数据实战指南:从入门到精通
大数据·hive·hadoop
橘子编程6 天前
Apache Hadoop知识全解析
大数据·hive·hadoop·apache
dovens6 天前
Spring Boot 从 2.7.x 升级到 3.3注意事项
数据库·hive·spring boot
Joy T8 天前
【大数据】离线数仓核心组件:Hive 架构解析与进阶操作指南
大数据·数据仓库·hive·hadoop·架构
jasnet_u8 天前
在Hadoop3.3.6上搭建Hive3.1.2
hive·hadoop
二进制_博客9 天前
使用Datax批量将mysql数据导入hive
数据库·hive·mysql
talen_hx2969 天前
《零基础入门Spark》学习笔记 Day 10
大数据·hive·笔记·学习·spark
二进制_博客9 天前
Spark On Hive 系统整合
大数据·hive·spark
蓝眸少年CY13 天前
Hive - 函数、压缩与优化
数据仓库·hive·hadoop
zhojiew16 天前
[INFRA] EMR集群中Hive和Spark集成Glue Data Catalog过程的深入分析
hive·hadoop·spark·aws·bigdata