hive部署

  1. 下载hive安装包:https://dlcdn.apache.org/hive/hive-2.3.9/
  2. 解压及环境部署
bash 复制代码
tar -zxvf apache-hive-2.3.9-bin.tar.gz
mv apache-hive-2.3.9-bin hive
bash 复制代码
vim /etc/profile
c 复制代码
添加至环境变量
export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin
bash 复制代码
source /etc/profile

编写配置文件

bash 复制代码
vim hive-site.xml
c 复制代码
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
    <description>JDBC connect string for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.cj.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>hive</value>
    <description>username to use against metastore database</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>hive</value>
    <description>password to use against metastore database</description>
  </property>
</configuration>
  1. 安装mysql
bas在这里插入代码片h 复制代码
sudo apt-get update  #更新软件源
sudo apt-get install mysql-server  #安装mysq

验证

bash 复制代码
service mysql start
sudo netstat -tap | grep mysql
mysql -u root -p #进入mysql shell 

配置:

bash 复制代码
mysql> create user 'hive'@'localhost' identified by 'hive'; #创建用户hive,密码hive
mysql> create database hive;    #这个hive数据库与hive-site.xml中localhost:3306/hive的hive对应,用来保存hive元数据
mysql> grant all on *.* to 'hive'@'localhost';#将所有数据库的所有表的所有权限赋给hive用户,后面的hive是配置hive-site.xml中配置的连接密码
mysql> flush privileges#刷新权限

下载mysql jdbc 包

https://dev.mysql.com/downloads/connector/j/

bash 复制代码
tar -zxvf  mysql-connector-j-8.1.0.tar.gz
mv mysql-connector-j-8.1.0 ../mysql
cp mysql/mysql-connector-j-8.1.0.jar  /usr/local/hive/lib

注意

  1. 启动hive
bash 复制代码
start-all.sh #启动hadoop
schematool -initSchema -dbType mysql #执行初始化操作
hive  #启动hive

验证

bash 复制代码
show tables;
相关推荐
2501_9272835821 小时前
荣联汇智助力天津艺虹打造“软硬一体”智慧工厂,全流程自动化引领印刷包装行业数智变革
大数据·运维·数据仓库·人工智能·低代码·自动化
孤雪心殇1 天前
快速上手数仓基础知识
数据仓库·hive·spark
渣渣盟1 天前
数据仓库 vs 数据湖 vs 湖仓一体:架构演进与选型
数据仓库·架构
隐于花海,等待花开1 天前
39.ROUND / FLOOR / CEIL 函数深度解析
hive·hadoop
juniperhan1 天前
Flink 系列第22篇:Flink SQL 参数配置与性能调优指南:从 Checkpoint 到聚合优化
大数据·数据仓库·分布式·sql·flink
juniperhan2 天前
Flink 系列第21篇:Flink SQL 函数与 UDF 全解读:类型推导、开发要点与 Module 扩展
java·大数据·数据仓库·分布式·sql·flink
看海的四叔2 天前
【SQL】SQL-管好你的字符串
大数据·数据库·hive·sql·数据分析·字符串
坚持就完事了2 天前
YARN资源管理器
大数据·linux·hadoop·学习
渣渣盟2 天前
大数据技术栈全景图:从零到一的入门路线(深度实战版)
大数据·hadoop·python·flink·spark
地球资源数据云2 天前
1960年-2024年中国棉花产量数据集
大数据·数据结构·数据仓库·人工智能