hive部署

  1. 下载hive安装包:https://dlcdn.apache.org/hive/hive-2.3.9/
  2. 解压及环境部署
bash 复制代码
tar -zxvf apache-hive-2.3.9-bin.tar.gz
mv apache-hive-2.3.9-bin hive
bash 复制代码
vim /etc/profile
c 复制代码
添加至环境变量
export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin
bash 复制代码
source /etc/profile

编写配置文件

bash 复制代码
vim hive-site.xml
c 复制代码
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
    <description>JDBC connect string for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.cj.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>hive</value>
    <description>username to use against metastore database</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>hive</value>
    <description>password to use against metastore database</description>
  </property>
</configuration>
  1. 安装mysql
bas在这里插入代码片h 复制代码
sudo apt-get update  #更新软件源
sudo apt-get install mysql-server  #安装mysq

验证

bash 复制代码
service mysql start
sudo netstat -tap | grep mysql
mysql -u root -p #进入mysql shell 

配置:

bash 复制代码
mysql> create user 'hive'@'localhost' identified by 'hive'; #创建用户hive,密码hive
mysql> create database hive;    #这个hive数据库与hive-site.xml中localhost:3306/hive的hive对应,用来保存hive元数据
mysql> grant all on *.* to 'hive'@'localhost';#将所有数据库的所有表的所有权限赋给hive用户,后面的hive是配置hive-site.xml中配置的连接密码
mysql> flush privileges#刷新权限

下载mysql jdbc 包

https://dev.mysql.com/downloads/connector/j/

bash 复制代码
tar -zxvf  mysql-connector-j-8.1.0.tar.gz
mv mysql-connector-j-8.1.0 ../mysql
cp mysql/mysql-connector-j-8.1.0.jar  /usr/local/hive/lib

注意

  1. 启动hive
bash 复制代码
start-all.sh #启动hadoop
schematool -initSchema -dbType mysql #执行初始化操作
hive  #启动hive

验证

bash 复制代码
show tables;
相关推荐
夕除3 小时前
javaweb--04
数据仓库·hive·hadoop
juniperhan1 天前
Flink 系列第4篇:Flink 时间系统与 Timer 定时器实战精讲
java·大数据·数据仓库·flink
juniperhan1 天前
link 系列第7篇:Flink 状态管理全解析(原理+类型+存储+实操)
大数据·数据仓库·flink
juniperhan1 天前
Flink 系列第6篇:Watermark 水印全解析(原理+实操+避坑)
大数据·数据仓库·flink
武子康2 天前
大数据-264 实时数仓-MySQL Binlog配置详解:从原理到实践|数据恢复与主从复制实战
大数据·hadoop·后端
武子康2 天前
大数据-265 实时数仓-Canal MySQL Binlog配置详解:从原理到实践|数据恢复与主从复制实战
大数据·hadoop·后端
晓纪同学2 天前
WPF-03 第一个WPF程序
大数据·hadoop·wpf
2501_933329552 天前
技术深度剖析:Infoseek 字节探索舆情处置系统的全链路架构与核心实现
大数据·数据仓库·人工智能·自然语言处理·架构
xiaoyaohou112 天前
024、大数据技术栈概览:Hadoop、Spark与Flink
大数据·hadoop·spark
虚幻如影2 天前
Hive 中“STRING类型无需显式指定长度
数据仓库·hive·hadoop