Hive 单机版

Hive 安装

前提

安装 hadoop

Ubuntu 安装、配置 MySQL

安装

sudo apt install mysql-server

MySQL 配置

假如你不知道 root 用户密码, 需要重置 root 密码

bash 复制代码
sudo passwd root

切换到 root 用户

bash 复制代码
su - root

使用命令 mysql 连接数据库

sql 复制代码
mysql

创建用户管理数据库,用户名:demo, 密码: 123456

sql 复制代码
# 创建 demo 用户来管理数据库
CREATE USER 'demo'@'%' IDENTIFIED BY '123456';

# 为用户 demo 分配权限
GRANT ALL PRIVILEGES ON *.* TO "demo"@"%" with grant option;

# 创建数据库(hive) 来存储 hive 元数据
create database hive;

# 创建用户来管理 数据库 hive
CREATE USER 'hive'@'%' IDENTIFIED BY '123456';
GRANT ALL PRIVILEGES ON hive.* TO "hive"@"%";

退出数据库

sql 复制代码
exit

退出 root 用户

bash 复制代码
exit

数据库外网访问

配置文件路径 /etc/mysql

编辑服务器配置文件

bash 复制代码
sudo vim /etc/mysql/mysql.conf.d/mysqld.cnf 

bind-address            = 127.0.0.1

修改为

bind-address            = 0.0.0.0

重启 mysql

bash 复制代码
sudo service mysql restart

安装 hive

bash 复制代码
# 进入 /export/softpackages/ 目录
cd /export/softpackages/

# 解压 hive
tar -xvf apache-hive-3.1.3-bin.tar.gz

# 将 hive 移动到 /export/servers
mv apache-hive-3.1.3-bin /export/servers/hive-3.1.3

编辑 /etc/profile 文件

bash 复制代码
sudo vim /etc/profile

添加以下内容

bash 复制代码
# hive 环境变量
export HIVE_HOME=/export/servers/hive-3.1.3  
export PATH=$HIVE_HOME/bin:$PATH

生效环境变量配置文件

bash 复制代码
source /etc/profile

配置 Hive

配置 MySQL 驱动

bash 复制代码
# 进入 /export/softpackages/ 目录
cd /export/softpackages/

# 复制 mysql 驱动到li目录
cp mysql-connector-j-8.0.33.jar /export/servers/hive-3.1.3/lib

hive-env.sh

bash 复制代码
cd /export/servers/hive-3.1.3/conf

cp hive-env.sh.template hive-env.sh

修改 hive-env.sh 文件

bash 复制代码
vim hive-env.sh

追加以下内容

HADOOP_HOME=/export/servers/hadoop-3.3.6
export HIVE_CONF_DIR=/export/servers/hive-3.1.3/conf

hive-site.xml

bash 复制代码
vim hive-site.xml

内容如下

xml 复制代码
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
	<property>
		<name>javax.jdo.option.ConnectionURL</name>
		<value>jdbc:mysql://127.0.0.1:3306/hive</value>
		<description>数据库链接地址</description>
	</property>
	<property>
		<name>javax.jdo.option.ConnectionDriverName</name>
		<value>com.mysql.cj.jdbc.Driver</value>
		<description>数据库操作驱动</description>
	</property>

	<property>
		<name>javax.jdo.option.ConnectionUserName</name>
		<value>demo</value>
		<description>数据库用户名</description>
	</property>

	<property>
		<name>javax.jdo.option.ConnectionPassword</name>
		<value>123456</value>
		<description>数据库用户密码</description>
	</property>
</configuration>

初始化 hive

bash 复制代码
schematool -dbType mysql -initSchema

测试 hive shell

链接 hive

bash 复制代码
hive

退出 hive shell

sql 复制代码
exit;
相关推荐
武子康9 小时前
大数据-257 离线数仓 - 数据质量监控 监控方法 Griffin架构
java·大数据·数据仓库·hive·hadoop·后端
清平乐的技术专栏1 天前
Hive SQL 查询所有函数
hive·hadoop·sql
csding111 天前
写入hive metastore报问题Permission denied: user=hadoop,inode=“/user/hive”
数据仓库·hive·hadoop
神秘打工猴2 天前
hive常用函数有哪些
hive
lucky_syq2 天前
Hive与HBase的区别有哪些
hive·hadoop·hbase
出发行进3 天前
Hive其五,使用技巧,数据查询,日志以及复杂类型的使用
大数据·hive·数据分析
武子康3 天前
大数据-256 离线数仓 - Atlas 数据仓库元数据管理 正式安装 启动服务访问 Hive血缘关系导入
大数据·数据仓库·hive·hadoop
lucky_syq3 天前
Spark和Hive的区别
大数据·hive·spark
小刘鸭!3 天前
Hive解决数据倾斜
数据仓库·hive·hadoop
武子康3 天前
大数据-255 离线数仓 - Atlas 数据仓库元数据管理 数据血缘关系 元数据
大数据·数据仓库·hive·hadoop·spring