hive3.1.3安装及基本例子

前提要安装好hadoop环境和mysql。

1、下载并解压

https://archive.apache.org/dist/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz

下载bin包到/app/src中。

bash 复制代码
cd /app/src/
tar zxvf apache-hive-3.1.3-bin.tar.gz
mv apache-hive-3.1.3-bin /app/hive

2、配置path

bash 复制代码
nano /etc/profile
export HIVE_HOME=/app/hive
export PATH=$HIVE_HOME/bin:$PATH

3、下载并配置connector-java驱动

下载mysql-connector-java驱动:

https://cdn.mysql.com/archives/mysql-connector-java-8.0/mysql-connector-j-8.0.33.tar.gz

bash 复制代码
cd zxvf mysql-connector-java-8.0.33.tar.gz
cd mysql-connector-java-8.0.33
cp mysql-connector-java-8.0.33-bin.jar /app/hive/lib

4、配置

bash 复制代码
cd /opt/hive/conf
cp hive-env.sh.template hive-env.sh

nano hive-env.sh

增加:

bash 复制代码
HADOOP_HOME=/usr/local/hadoop
nano hive-site.xml 内容:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
        <property>
                <name>hive.metastore.warehouse.dir</name>
                <value>/opt/hive/warehouse</value>
                <!-- 注意这里写刚刚新创文件的路径 -->
        </property>
        <property>
                <name>hive.metastore.local</name>
                <value>true</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionURL</name>
                <value>jdbc:mysql://127.0.0.1:3306/hiveDB?createDatabaseIfNotExist=true</value>
                <!-- 这里自己搓自己的mysql的ip地址 -->
        </property>
        <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>com.mysql.jdbc.Driver</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>root</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>123123</value>
                <!-- 这里搓自己的mysql账号和密码 -->
				</property>
</configuration>

5、执行命令:

bash 复制代码
schematool -dbType mysql -initSchema

6、启动hdfs

bash 复制代码
start-dfs.sh

通过 hive进入到命令行模式。

7、例子:

bash 复制代码
create database if not exists db1;
use db1;

create table if not exists table1(
eduLevel_name string comment '学历',
company_name string comment '公司名',
jobName string comment '职位名称',
salary int comment '薪资',
city_code int comment '城市编码',
responsibility string comment '岗位职责',
workingExp string comment '工作经验'
)
row format delimited fields terminated by ','
lines terminated by '\n'
stored as textfile;
truncate table table1;
load data local inpath '/root/t1.txt' into table table1;

select avg(salary),workingExp from table1 group by workingExp
相关推荐
工作中的程序员2 天前
hive sql优化基础
hive·sql
风跟我说过她3 天前
Sqoop的安装与配置
hive·hadoop·经验分享·centos·hbase·sqoop
DashingGuy7 天前
hive、spark任务报错或者异常怎么排查以及定位哪段sql
hive·sql·spark
秦JaccLink10 天前
Hive语句执行顺序详解
数据仓库·hive·hadoop
AI算力网络与通信10 天前
大数据领域 Hive 数据仓库搭建实战
大数据·数据仓库·hive·ai
工业互联网专业13 天前
基于大数据hive的银行信用卡用户的数仓系统的设计与实现_django
大数据·hive·django·毕业设计·源码·课程设计·数仓系统
顧棟14 天前
【Hive实战】hive-testbench的调研
数据仓库·hive·hadoop
emmm...14 天前
hive连不上,报错9000拒绝连接
数据仓库·hive·hadoop
野老杂谈14 天前
Hive SQL 中的时间戳转换详解
hive·hadoop·sql
大数据CLUB14 天前
基于hive和mapreduce的地铁数据分析及可视化_hive作为数据库
大数据·hive·hadoop·分布式·数据分析·mapreduce