hive部署

  1. 下载hive安装包:https://dlcdn.apache.org/hive/hive-2.3.9/
  2. 解压及环境部署
bash 复制代码
tar -zxvf apache-hive-2.3.9-bin.tar.gz
mv apache-hive-2.3.9-bin hive
bash 复制代码
vim /etc/profile
c 复制代码
添加至环境变量
export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin
bash 复制代码
source /etc/profile

编写配置文件

bash 复制代码
vim hive-site.xml
c 复制代码
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
    <description>JDBC connect string for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.cj.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>hive</value>
    <description>username to use against metastore database</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>hive</value>
    <description>password to use against metastore database</description>
  </property>
</configuration>
  1. 安装mysql
bas在这里插入代码片h 复制代码
sudo apt-get update  #更新软件源
sudo apt-get install mysql-server  #安装mysq

验证

bash 复制代码
service mysql start
sudo netstat -tap | grep mysql
mysql -u root -p #进入mysql shell 

配置:

bash 复制代码
mysql> create user 'hive'@'localhost' identified by 'hive'; #创建用户hive,密码hive
mysql> create database hive;    #这个hive数据库与hive-site.xml中localhost:3306/hive的hive对应,用来保存hive元数据
mysql> grant all on *.* to 'hive'@'localhost';#将所有数据库的所有表的所有权限赋给hive用户,后面的hive是配置hive-site.xml中配置的连接密码
mysql> flush privileges#刷新权限

下载mysql jdbc 包

https://dev.mysql.com/downloads/connector/j/

bash 复制代码
tar -zxvf  mysql-connector-j-8.1.0.tar.gz
mv mysql-connector-j-8.1.0 ../mysql
cp mysql/mysql-connector-j-8.1.0.jar  /usr/local/hive/lib

注意

  1. 启动hive
bash 复制代码
start-all.sh #启动hadoop
schematool -initSchema -dbType mysql #执行初始化操作
hive  #启动hive

验证

bash 复制代码
show tables;
相关推荐
Ray.19982 小时前
Flink 的核心特点和概念
大数据·数据仓库·数据分析·flink
lisacumt2 小时前
【kerberos】使用keytab文件,kerberos认证工具类 scala版本
hadoop·scala
MasterNeverDown4 小时前
WPF 使用iconfont
hadoop·ui·wpf
三生暮雨渡瀟瀟8 小时前
解决HiveSQL查询出现Java.lang.OutMemoryError.java heap space
hive
B站计算机毕业设计超人17 小时前
计算机毕业设计hadoop+spark股票基金推荐系统 股票基金预测系统 股票基金可视化系统 股票基金数据分析 股票基金大数据 股票基金爬虫
大数据·hadoop·python·spark·课程设计·数据可视化·推荐算法
viperrrrrrrrrr71 天前
大数据学习(36)- Hive和YARN
大数据·hive·学习
重生之Java再爱我一次1 天前
Hive部署
数据仓库·hive·hadoop
想做富婆1 天前
大数据,Hadoop,HDFS的简单介绍
大数据·hadoop·分布式
WorkAgent1 天前
windows下本地部署安装hadoop+scala+spark-【不需要虚拟机】
hadoop·spark·scala