hive部署

  1. 下载hive安装包:https://dlcdn.apache.org/hive/hive-2.3.9/
  2. 解压及环境部署
bash 复制代码
tar -zxvf apache-hive-2.3.9-bin.tar.gz
mv apache-hive-2.3.9-bin hive
bash 复制代码
vim /etc/profile
c 复制代码
添加至环境变量
export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin
bash 复制代码
source /etc/profile

编写配置文件

bash 复制代码
vim hive-site.xml
c 复制代码
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
    <description>JDBC connect string for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.cj.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>hive</value>
    <description>username to use against metastore database</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>hive</value>
    <description>password to use against metastore database</description>
  </property>
</configuration>
  1. 安装mysql
bas在这里插入代码片h 复制代码
sudo apt-get update  #更新软件源
sudo apt-get install mysql-server  #安装mysq

验证

bash 复制代码
service mysql start
sudo netstat -tap | grep mysql
mysql -u root -p #进入mysql shell 

配置:

bash 复制代码
mysql> create user 'hive'@'localhost' identified by 'hive'; #创建用户hive,密码hive
mysql> create database hive;    #这个hive数据库与hive-site.xml中localhost:3306/hive的hive对应,用来保存hive元数据
mysql> grant all on *.* to 'hive'@'localhost';#将所有数据库的所有表的所有权限赋给hive用户,后面的hive是配置hive-site.xml中配置的连接密码
mysql> flush privileges#刷新权限

下载mysql jdbc 包

https://dev.mysql.com/downloads/connector/j/

bash 复制代码
tar -zxvf  mysql-connector-j-8.1.0.tar.gz
mv mysql-connector-j-8.1.0 ../mysql
cp mysql/mysql-connector-j-8.1.0.jar  /usr/local/hive/lib

注意

  1. 启动hive
bash 复制代码
start-all.sh #启动hadoop
schematool -initSchema -dbType mysql #执行初始化操作
hive  #启动hive

验证

bash 复制代码
show tables;
相关推荐
BD_Marathon31 分钟前
在 Linux 环境中配置 Eclipse 以开发 Hadoop 应用
java·hadoop·eclipse
CC-NX38 分钟前
大数据安全技术实验:Hadoop环境部署
大数据·hadoop·分布式
q***76669 小时前
Spring Boot 从 2.7.x 升级到 3.3注意事项
数据库·hive·spring boot
秃头菜狗15 小时前
十八、在slave01节点上安装Hadoop
服务器·hadoop·eclipse
q***37519 小时前
Spring Boot 从 2.7.x 升级到 3.3注意事项
数据库·hive·spring boot
Hello.Reader1 天前
Flink CDC + StarRocks用 StarRocks Connector 打通实时明细与分析
数据仓库·adb·flink
muxue1782 天前
Hadoop集群搭建(上):centos 7为例(已将将安装所需压缩包统一放在了/opt/software目录下)
大数据·hadoop·centos
q***65692 天前
深入解析HDFS:定义、架构、原理、应用场景及常用命令
hadoop·hdfs·架构
muxue1782 天前
Hadoop集群搭建(下):centos 7为例(已将将安装所需压缩包统一放在了/opt/software目录下)
大数据·hadoop·centos