大数据项目实战(安装Hive)

一,搭建大数据集群环境

1.3 安装Hive

1.3.1 Hive的安装

1.安装MySQL服务

1)检查是否安装MySQL,如安装将其卸载。卸载命令

rpm -qa | grep mysql

2)搜索MySQL文件夹,如存在则删除

|--------------------------------------------------------------------------------------------------------------------------|
| find / -name mysql rm -rf /etc/selinux/targeted/active/modules/100/mysql rm -rf /usr/lib64/mysql rm -rf /usr/share/mysql |

3)安装MySQL。
①下载yum存储库(如遇网络问题下载不了,可通过离线安装MySQL)

百度网盘链接:https://pan.baidu.com/s/1AkJCiEuxdkG_t-PfumbQDQ?pwd=huan

提取码:huan

②安装

rpm -Uvh mysql80-community-release-el7-9.noarch.rpm

③安装mysql-community-server:

yum -y install mysql-community-server

4)修改密码
①启动mysql服务器:

systemctl start mysqld

②获取初始密码:

grep 'temporary password' /var/log/mysqld.log

③登录MySQL:

mysql -u root -p

④修改密码:

ALTER USER 'root'@'localhost' IDENTIFIED BY '初始密码';

注意:密码为8位数以上和种类至少大写+小写+符号+数字

⑤修改密码安全等级为LOW:

set global validate_password.policy=LOW;

⑥设置密码长度为6:

set global validate_password.length=6;

⑦ 修改密码:

ALTER USER 'root'@'localhost' IDENTIFIED BY '123456';

5)设置MySQL允许远程登录
开启远程访问:

use mysql;

update user set host='%' where user='root';

6)重启MySQL服务:

systemctl restart mysqld

2.安装Hive

(1)上传安装包
(2)进行解压

tar -zxvf apache-hive-1.2.1-bin.tar.gz -C /export/servers/

(3)修改配置文件
①修改hive安装路径

mv apache-hive-1.2.1-bin hive

②复制hive-env.sh文件

cp hive-env.sh.template hive-env.sh

③修改hive-env.sh文件(添加Hadoop环境变量)

vi hive-env.sh

④创建hive-site.xml文件并进行以下配置:

vi hive-site.xml

添加以下内容:

复制代码
<configuration>
<!--连接数据库地址,名称 -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive?
createDatabaseIfNotExist=true&amp;useUnicode=true&amp;characterEncoding=UTF8&amp;useSSL=false</value>
</property>
<!--连接数据库驱动 -->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<!--连接数据库用户名称 -->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<!--连接数据库用户密码 -->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
</configuration>
⑤上传驱动包至lib目录:(根据MySQL版本自行下载驱动包即可,我的网盘里面有,有需要可以看一下)

版本可能会有限制,建议用mysql-connector-java-5.1.46.jar

⑥修改系统环境变量

vi /etc/profile,添加Hive环境

|------------------------------------------------------------------------|
| export HIVE_HOME=/export/servers/hive export PATH=PATH:HIVE_HOME/bin |

⑦启动hive:
相关推荐
Volunteer Technology21 小时前
Hadoop之HDFS集群搭建与操作(二)
大数据·hadoop·hdfs
Volunteer Technology1 天前
Hadoop之HDFS shell操作篇
大数据·hadoop·hdfs
青春万岁!!1 天前
hive 动态分区参数设置错误导致数据不稳定
大数据·数据仓库·hive·hadoop
大大大大晴天️2 天前
浅聊Hadoop集群的主流安全方案(LDAP+Kerberos+Ranger)
大数据·hadoop·安全
roman_日积跬步-终至千里2 天前
为什么 Hive 无法通过同步 JDBC 导出百万级数据?
数据仓库·hive·hadoop
WL_Aurora2 天前
HDFS基础编程常用命令
大数据·hadoop·hdfs
大大大大晴天2 天前
浅聊Hadoop集群的主流安全方案(LDAP+Kerberos+Ranger)
大数据·hadoop
roman_日积跬步-终至千里2 天前
Hive JDBC vs MySQL JDBC:**“服务端推完就跑,客户端慢慢吃”**详解
数据仓库·hive·hadoop
计算机毕业编程指导师3 天前
【计算机毕设推荐】Python+Hadoop+Spark共享单车数据可视化分析系统 毕业设计 选题推荐 毕设选题 数据分析 机器学习 数据挖掘
大数据·hadoop·python·计算机·数据挖掘·spark·课程设计
计算机毕业编程指导师3 天前
【计算机毕设】基于Hadoop的共享单车订单数据分析系统+Python+Django全栈开发 毕业设计 选题推荐 毕设选题 数据分析 机器学习 数据挖掘
大数据·hadoop·python·计算机·数据挖掘·spark·django