Hive 单机版

Hive 安装

前提

安装 hadoop

Ubuntu 安装、配置 MySQL

安装

复制代码
sudo apt install mysql-server

MySQL 配置

假如你不知道 root 用户密码, 需要重置 root 密码

bash 复制代码
sudo passwd root

切换到 root 用户

bash 复制代码
su - root

使用命令 mysql 连接数据库

sql 复制代码
mysql

创建用户管理数据库,用户名:demo, 密码: 123456

sql 复制代码
# 创建 demo 用户来管理数据库
CREATE USER 'demo'@'%' IDENTIFIED BY '123456';

# 为用户 demo 分配权限
GRANT ALL PRIVILEGES ON *.* TO "demo"@"%" with grant option;

# 创建数据库(hive) 来存储 hive 元数据
create database hive;

# 创建用户来管理 数据库 hive
CREATE USER 'hive'@'%' IDENTIFIED BY '123456';
GRANT ALL PRIVILEGES ON hive.* TO "hive"@"%";

退出数据库

sql 复制代码
exit

退出 root 用户

bash 复制代码
exit

数据库外网访问

配置文件路径 /etc/mysql

编辑服务器配置文件

bash 复制代码
sudo vim /etc/mysql/mysql.conf.d/mysqld.cnf 

复制代码
bind-address            = 127.0.0.1

修改为

复制代码
bind-address            = 0.0.0.0

重启 mysql

bash 复制代码
sudo service mysql restart

安装 hive

bash 复制代码
# 进入 /export/softpackages/ 目录
cd /export/softpackages/

# 解压 hive
tar -xvf apache-hive-3.1.3-bin.tar.gz

# 将 hive 移动到 /export/servers
mv apache-hive-3.1.3-bin /export/servers/hive-3.1.3

编辑 /etc/profile 文件

bash 复制代码
sudo vim /etc/profile

添加以下内容

bash 复制代码
# hive 环境变量
export HIVE_HOME=/export/servers/hive-3.1.3  
export PATH=$HIVE_HOME/bin:$PATH

生效环境变量配置文件

bash 复制代码
source /etc/profile

配置 Hive

配置 MySQL 驱动

bash 复制代码
# 进入 /export/softpackages/ 目录
cd /export/softpackages/

# 复制 mysql 驱动到li目录
cp mysql-connector-j-8.0.33.jar /export/servers/hive-3.1.3/lib

hive-env.sh

bash 复制代码
cd /export/servers/hive-3.1.3/conf

cp hive-env.sh.template hive-env.sh

修改 hive-env.sh 文件

bash 复制代码
vim hive-env.sh

追加以下内容

复制代码
HADOOP_HOME=/export/servers/hadoop-3.3.6
export HIVE_CONF_DIR=/export/servers/hive-3.1.3/conf

hive-site.xml

bash 复制代码
vim hive-site.xml

内容如下

xml 复制代码
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
	<property>
		<name>javax.jdo.option.ConnectionURL</name>
		<value>jdbc:mysql://127.0.0.1:3306/hive</value>
		<description>数据库链接地址</description>
	</property>
	<property>
		<name>javax.jdo.option.ConnectionDriverName</name>
		<value>com.mysql.cj.jdbc.Driver</value>
		<description>数据库操作驱动</description>
	</property>

	<property>
		<name>javax.jdo.option.ConnectionUserName</name>
		<value>demo</value>
		<description>数据库用户名</description>
	</property>

	<property>
		<name>javax.jdo.option.ConnectionPassword</name>
		<value>123456</value>
		<description>数据库用户密码</description>
	</property>
</configuration>

初始化 hive

bash 复制代码
schematool -dbType mysql -initSchema

测试 hive shell

链接 hive

bash 复制代码
hive

退出 hive shell

sql 复制代码
exit;
相关推荐
starfalling102414 小时前
【hive】一种高效增量表的实现
hive
D明明就是我19 小时前
Hive 拉链表
数据仓库·hive·hadoop
嘉禾望岗5031 天前
hive join优化和数据倾斜处理
数据仓库·hive·hadoop
yumgpkpm1 天前
华为鲲鹏 Aarch64 环境下多 Oracle 数据库汇聚操作指南 CMP(类 Cloudera CDP 7.3)
大数据·hive·hadoop·elasticsearch·zookeeper·big data·cloudera
忧郁火龙果1 天前
六、Hive的基本使用
数据仓库·hive·hadoop
忧郁火龙果1 天前
五、安装配置hive
数据仓库·hive·hadoop
chad__chang2 天前
dolphinscheduler安装过程
hive·hadoop
yumgpkpm3 天前
CMP (类ClouderaCDP7.3(404次编译) )华为鲲鹏Aarch64(ARM)信创环境多个mysql数据库汇聚的操作指南
大数据·hive·hadoop·zookeeper·big data·cloudera
夫唯不争,故无尤也4 天前
Maven创建Java项目实战全流程
java·数据仓库·hive·hadoop·maven
yumgpkpm5 天前
CMP (类Cloudera) CDP7.3(400次编译)在华为鲲鹏Aarch64(ARM)信创环境中的性能测试过程及命令
大数据·hive·hadoop·python·elasticsearch·spark·cloudera