Apache Hive的部署与体验

一、Apache Hive概述

  1. 什么是分布式SQL计算?
    以分布式的形式,执行SQL语句,进行数据统计分析。
  2. Apache Hive是做什么的?
  • 很简单,将SQL语句翻译成MapReduce程序,从而提供用户分布式SQL计算的能力。
  • 传统MapReduce开发:写MR代码->得到结果
  • 使用Hive开发:写SQL->得到结果
  • 底层都是MR在运行,但是使用层面上更加简单了

二、Hive部署与体验

1、安装MySql数据库

复制代码
# 更新密钥
rpm --import https://repo.mysql.com/RPM-GPG-KEY-mysql-2022

# 安装Mysql yum库
rpm -Uvh http://repo.mysql.com//mysql57-community-release-el7-7.noarch.rpm

# yum安装Mysql
yum -y install mysql-community-server

# 启动Mysql设置开机启动
systemctl start mysqld
systemctl enable mysqld

# 检查Mysql服务状态
systemctl status mysqld

# 第一次启动mysql,会在日志文件中生成root用户的一个随机密码,使用下面命令查看该密码
grep 'temporary password' /var/log/mysqld.log

# 修改root用户密码
mysql -u root -p -h localhost
Enter password:
 
mysql> ALTER USER 'root'@'localhost' IDENTIFIED BY 'Root!@#$';

# 如果你想设置简单密码,需要降低Mysql的密码安全级别
set global validate_password_policy=LOW; # 密码安全级别低
set global validate_password_length=4;	 # 密码长度最低4位即可

# 然后就可以用简单密码了(课程中使用简单密码,为了方便,生产中不要这样)
ALTER USER 'root'@'localhost' IDENTIFIED BY 'root';

/usr/bin/mysqladmin -u root password 'root'

grant all privileges on *.* to root@"%" identified by 'root' with grant option;  
flush privileges;

2、配置Hadoop

配置如下内容在Hadoop的core-site.xml中,并分发到其它节点,且重启HDFS集群

复制代码
<property>
    <name>hadoop.proxyuser.hadoop.hosts</name>
    <value>*</value>
  </property>

  <property>
    <name>hadoop.proxyuser.hadoop.groups</name>
    <value>*</value>
  </property>

3、下载Hive

点此官网链接下载

复制代码
# 解压
tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /export
# 创建软连接
ln -s /export/apache-hive-3.1.3-bin /export/hive

4、下载MySql驱动包

点此官网下载

复制代码
# 将下载好的驱动jar包,移动到Hive安装目录lib下:
mv mysql-connector-java-5.1.34.jar /export/hive/lib/

5、在Hive目录conf下,创建hive-env.sh文件,内容如下:

复制代码
export HADOOP_HOME=/export/hadoop
export HIVE_CONF_DIR=/export/hive/conf
export HIVE_AUX_JARS_PATH=/export/hive/lib

6、在Hive目录conf下,创建hive-site.xml文件,内容如下:

复制代码
<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://node1:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
  </property>

  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
  </property>

  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
  </property>

  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>root</value>
  </property>

  <property>
    <name>hive.server2.thrift.bind.host</name>
    <value>node1</value>
  </property>

  <property>
    <name>hive.metastore.uris</name>
    <value>thrift://node1:9083</value>
  </property>

  <property>
    <name>hive.metastore.event.db.notification.api.auth</name>
    <value>false</value>
  </property>

</configuration>

7、 初始化元数据库

  • 先创建数据库: hive,在mysql中执行:

    CREATE DATABASE hive CHARSET UTF8;

  • 执行元数据库初始化命令:

    cd /export/hive
    bin/schematool -initSchema -dbType mysql -verbos

8、启动hive(使用hadoop用户)

复制代码
# 创建一个hive的日志文件夹: 
mkdir /export/server/hive/logs
# 启动元数据管理服务(必须启动,否则无法工作)
# 前台启动:
bin/hive --service metastore 
# 后台启动:
nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
# 启动客户端,二选一(当前先选择Hive Shell方式)
# Hive Shell方式(可以直接写SQL): 
bin/hive
# Hive ThriftServer方式(不可直接写SQL,需要外部客户端链接使用): 
bin/hive --service hiveserver2

至此,Apache Hive的部署与体验 结束!!!

相关推荐
qq_12498707533 小时前
基于Hadoop的信贷风险评估的数据可视化分析与预测系统的设计与实现(源码+论文+部署+安装)
大数据·人工智能·hadoop·分布式·信息可视化·毕业设计·计算机毕业设计
CodeToGym4 小时前
【Java 办公自动化】Apache POI 入门:手把手教你实现 Excel 导入与导出
java·apache·excel
十月南城6 小时前
Hive与离线数仓方法论——分层建模、分区与桶的取舍与查询代价
数据仓库·hive·hadoop
鹏说大数据8 小时前
Spark 和 Hive 的关系与区别
大数据·hive·spark
B站计算机毕业设计超人8 小时前
计算机毕业设计Hadoop+Spark+Hive招聘推荐系统 招聘大数据分析 大数据毕业设计(源码+文档+PPT+ 讲解)
大数据·hive·hadoop·python·spark·毕业设计·课程设计
B站计算机毕业设计超人8 小时前
计算机毕业设计hadoop+spark+hive交通拥堵预测 交通流量预测 智慧城市交通大数据 交通客流量分析(源码+LW文档+PPT+讲解视频)
大数据·hive·hadoop·python·spark·毕业设计·课程设计
AI架构师小马8 小时前
Hive调优手册:从入门到精通的完整指南
数据仓库·hive·hadoop·ai
数据架构师的AI之路8 小时前
深入了解大数据领域Hive的HQL语言特性
大数据·hive·hadoop·ai
码云数智-大飞8 小时前
保姆级教程:零基础快速上手 Apache SeaTunnel(原 Waterdrop)
apache
yuluo_YX9 小时前
Reactive 编程 - Java Reactor
java·python·apache