Ambari里面添加hive组件

1.创建hive数据库

在添加hive组件之前需要做的事情,先在master这个虚拟机里面创建好hive

先进入虚拟机里面进入mysql

然后输入这个命令看看有没有自己创建的hive数据库

show databases;

有的话会显示下面这个样子

没有的同学使用以下命令可以在MySQL中创建hive数据库(本人给的hive数据库密码是hive)

mysql> CREATE DATABASE hive;  
mysql> use hive;  
mysql> CREATE USER 'hive'@'%' IDENTIFIED BY 'hive';  
mysql> GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%';  
mysql> CREATE USER 'hive'@'localhost' IDENTIFIED BY 'hive';  
mysql> GRANT ALL PRIVILEGES ON *.* TO 'hive'@'localhost';  
mysql> CREATE USER 'hive'@'master' IDENTIFIED BY 'hive';  
mysql> GRANT ALL PRIVILEGES ON *.* TO 'hive'@'master';  
mysql> FLUSH PRIVILEGES;  

2.进入Ambari添加hive组件。

下面会显示三个组件,Pig,Tez,Slier

这三个直接选上就行。

3.权限问题处理

已经搭建完毕了ambari的同学们,在添加hive服务的时候,有可能会出现这个问题:500 status code received on GET method for API: /api/v1/stacks/HDP/versions/

这个问题是权限不够的原因,先加个权限。进入master虚拟机里面,进入root权限下,输入下面命令

sudo chown -R 用户名 /var/run/ambari-server

例如:我的虚拟机用户名是hadoop
//sudo chown -R hadoop /var/run/ambari-server

然后在进入ambari接着往下走

这里需要选择master,可能刚进来的时候是slave1,改一下就行

再接着往下走

4.安装hive组件所需填充的选项

第一步选Existing MySQL/MariaDB Database这个选项

第二步是输入你master虚拟机里面hive数据库的密码(如果你用了我上面的那个创建hive数据库的话,那么密码就是hive)

第三步是确定Database URL,这里大家按照

jdbc:mysql://{mysql节点ip}:{mysql端口号}/${hive数据库名}

也可以直接参考我这个图片

5.解决jar包问题

然后点击那个Connection,我这个是成功了,第一次的同学可能大多数都会失败,失败的原因大多数会报这个错误

这个先进入master虚拟机里面,先进入/usr/share/java这个路径看看有没有mysql驱动的jar包

cd /usr/share/java

ls

然后能看见这个jar包

在root权限下执行以下命令

ambari-server setup --jdbc-db=mysql --jdbc-driver=/usr/share/java/mysql-connector-java.jar

成功的话会显示以下信息

然后再进入ambari在重新点击Connection,就会显示Connection OK

6.完成安装

然后直接走到最后,再次安装

这里显示Warnings是没问题的,这个警告大多数会因为权限不够的原因而警告!

然后再次重新启动三个虚拟机或者ambari服务即可。

至此hive安装完毕。

说明:同学们应该也可以在安装ambari之前就直接解决权限问题和jar包问题,这样往后不会报错了,本人感觉应该也是没问题的,本人的安装方法也就是遇见问题解决问题的安装方法,大家可以直接把第3步权限问题处理第5步解决jar包直接提前解决在后续安装hive也是没问题的!

相关推荐
我的K84092 小时前
SparkSQL整合Hive后,如何启动hiveserver2服务
数据仓库·hive·hadoop
boonya7 小时前
Apache Hive分布式容错数据仓库系统
数据仓库·hive·apache
三生暮雨渡瀟瀟9 小时前
hvie SQL优化之where子句过滤模式
hive
武子康12 小时前
大数据-193 Apache Tez - DAG 作业计算框架 核心解释 工作原理 配置集成
大数据·hive·hadoop·hdfs·apache·hbase·mapreduce
m0_3755997321 小时前
Hadoop:单机伪分布式部署
大数据·hadoop·分布式
flying robot1 天前
PySpark和Hadoop
大数据·hadoop·分布式
小森饭1 天前
Kubernetes运行大数据组件-运行hive
大数据·hive·云原生·kubernetes
Darryl大数据1 天前
八、MapReduce 大规模数据处理深度剖析与实战指南
大数据·hadoop·mapreduce
yangjiwei02071 天前
Flume采集Kafka数据到Hive
hive·kafka·flume