Hadoop——Hive运行环境搭建

Windows:10 JDK:1.8 Apache Hadoop:2.7.0

Apache Hive:2.1.1 Apache Hive src:1.2.2 MySQL:5.7

1、下载

Hadoop搭建

Apache Hive 2.1.1:https://archive.apache.org/dist/hive/hive-2.1.1/apache-hive-2.1.1-bin.tar.gz

Apache Hive 1.2.2 src:https://archive.apache.org/dist/hive/hive-1.2.2/apache-hive-1.2.2-src.tar.gz

MySQL驱动下载:MySQL :: Begin Your Download或使用我下载好的(百度网盘 提取码:1024)

这里是以我安装版本,搭建操作都是一样的。

2、Hadoop和Hive版本

注意:Hive中对应的Hive版本最好不要比你安装的Hadoop版本高。

可以在解压后的Hive src中的pom.xml文件中查看:

3、Mysql驱动配置

将下载好的MySQL驱动解压,将mysql-connector-java-5.1.46目录下的mysql-connector-java-5.1.46-bin.jar复制到apache-hive-2.1.1-bin\lib目录下。

4、配置变量

HIVE_HOME:

PATH:

注意:以自己存放路径为准,E:\hadoop\..只是我自己的存放位置,下面相关路径操作同理。

5、修改配置文件名

找到apache-hive-2.1.1-bin\conf目录下的4个文件,重命名:

hive-default.xml.template -----> hive-site.xml

hive-env.sh.template -----> hive-env.sh

hive-exec-log4j.properties.template -----> hive-exec-log4j2.properties

hive-log4j2.properties.template -----> hive-log4j2.properties

6、创建目录

\apache-hive-2.1.1-bin\my_hive

\apache-hive-2.1.1-bin\my_hive\operation_logs_dir

\apache-hive-2.1.1-bin\my_hive\querylog_dir

\apache-hive-2.1.1-bin\my_hive\resources_dir

\apache-hive-2.1.1-bin\my_hive\scratch_dir

7、修改配置

修改hive-env.sh

修改hive-site.xml

四个新建文件路径配置:

连接数据库相关配置:

账号是否为root,密码是否为123456,端口是否为3306,如果不一样,就需要更改。

注意:useSSL=false要放最后,不然后面启动hive metastore服务会报错

8、在Hadoop上创建HDFS目录

hdfs dfs -mkdir -p /tmp

hdfs dfs -mkdir -p /user/hive/warehouse

hdfs dfs -chmod 777 /tmp

hdfs dfs -chmod 777 /user/hive/warehouse

9、创建数据库

10、启动Hadoop

到Hadoop的sbin目录下右键管理员身份运行start-all.cmd,或命令运行:start-all.cmd

11、启动hive metastore服务

以管理员身份打开cmd,目录切换到\apache-hive-2.1.1-bin\bin,输入命令:hive --service schematool -dbType mysql -initSchema

使用命令hive --service metastore的启动方式不适合Windows

如果在mysql中hive表中出现下图中许多表的情况,则说明开启成功。

只需要在第一次启动,之后再使用Hive就不需要再启动,可跳过这个阶段。

12、启动hive

以管理员身份打开cmd,目录切换到\apache-hive-2.1.1-bin\bin,输入命令:hive.cmd

尝试建一个表:create table stu(id int, name string),如果创建成功可以在管理界面看见:

相关推荐
喂完待续1 小时前
【Tech Arch】Hive技术解析:大数据仓库的SQL桥梁
大数据·数据仓库·hive·hadoop·sql·apache
SelectDB2 小时前
5000+ 中大型企业首选的 Doris,在稳定性的提升上究竟花了多大的功夫?
大数据·数据库·apache
最初的↘那颗心2 小时前
Flink Stream API 源码走读 - window 和 sum
大数据·hadoop·flink·源码·实时计算·窗口函数
Yusei_05234 小时前
迅速掌握Git通用指令
大数据·git·elasticsearch
一只栖枝10 小时前
华为 HCIE 大数据认证中 Linux 命令行的运用及价值
大数据·linux·运维·华为·华为认证·hcie·it
喂完待续14 小时前
Apache Hudi:数据湖的实时革命
大数据·数据仓库·分布式·架构·apache·数据库架构
青云交14 小时前
Java 大视界 -- 基于 Java 的大数据可视化在城市交通拥堵治理与出行效率提升中的应用(398)
java·大数据·flink·大数据可视化·拥堵预测·城市交通治理·实时热力图
计艺回忆路16 小时前
从Podman开始一步步构建Hadoop开发集群
hadoop
还是大剑师兰特20 小时前
Flink面试题及详细答案100道(1-20)- 基础概念与架构
大数据·flink·大剑师·flink面试题
189228048611 天前
NY243NY253美光固态闪存NY257NY260
大数据·网络·人工智能·缓存