hive3.1.3安装及基本例子

前提要安装好hadoop环境和mysql。

1、下载并解压

https://archive.apache.org/dist/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz

下载bin包到/app/src中。

bash 复制代码
cd /app/src/
tar zxvf apache-hive-3.1.3-bin.tar.gz
mv apache-hive-3.1.3-bin /app/hive

2、配置path

bash 复制代码
nano /etc/profile
export HIVE_HOME=/app/hive
export PATH=$HIVE_HOME/bin:$PATH

3、下载并配置connector-java驱动

下载mysql-connector-java驱动:

https://cdn.mysql.com/archives/mysql-connector-java-8.0/mysql-connector-j-8.0.33.tar.gz

bash 复制代码
cd zxvf mysql-connector-java-8.0.33.tar.gz
cd mysql-connector-java-8.0.33
cp mysql-connector-java-8.0.33-bin.jar /app/hive/lib

4、配置

bash 复制代码
cd /opt/hive/conf
cp hive-env.sh.template hive-env.sh

nano hive-env.sh

增加:

bash 复制代码
HADOOP_HOME=/usr/local/hadoop
nano hive-site.xml 内容:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
        <property>
                <name>hive.metastore.warehouse.dir</name>
                <value>/opt/hive/warehouse</value>
                <!-- 注意这里写刚刚新创文件的路径 -->
        </property>
        <property>
                <name>hive.metastore.local</name>
                <value>true</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionURL</name>
                <value>jdbc:mysql://127.0.0.1:3306/hiveDB?createDatabaseIfNotExist=true</value>
                <!-- 这里自己搓自己的mysql的ip地址 -->
        </property>
        <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>com.mysql.jdbc.Driver</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>root</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>123123</value>
                <!-- 这里搓自己的mysql账号和密码 -->
				</property>
</configuration>

5、执行命令:

bash 复制代码
schematool -dbType mysql -initSchema

6、启动hdfs

bash 复制代码
start-dfs.sh

通过 hive进入到命令行模式。

7、例子:

bash 复制代码
create database if not exists db1;
use db1;

create table if not exists table1(
eduLevel_name string comment '学历',
company_name string comment '公司名',
jobName string comment '职位名称',
salary int comment '薪资',
city_code int comment '城市编码',
responsibility string comment '岗位职责',
workingExp string comment '工作经验'
)
row format delimited fields terminated by ','
lines terminated by '\n'
stored as textfile;
truncate table table1;
load data local inpath '/root/t1.txt' into table table1;

select avg(salary),workingExp from table1 group by workingExp
相关推荐
weixin_4723394614 小时前
Doris查询Hive数据:实现高效跨数据源分析的实践指南
数据仓库·hive·hadoop
神奇侠20241 天前
Hive SQL常见操作
hive·hadoop·sql
itachi-uchiha2 天前
Docker部署Hive大数据组件
大数据·hive·docker
viperrrrrrrrrr72 天前
大数据学习(131)-Hive数据分析函数总结
大数据·hive·学习
qq_408413392 天前
spark 执行 hive sql数据丢失
hive·sql·spark
yt948322 天前
如何在IDE中通过Spark操作Hive
ide·hive·spark
viperrrrrrrrrr74 天前
大数据学习(129)-Hive数据分析
大数据·hive·学习
伍六星4 天前
图片上传问题解决方案与实践
大数据·hive·hadoop
杨DaB4 天前
【JavaWeb】Maven、Servlet、cookie/session
hive·servlet·maven
xx155802862xx4 天前
hive聚合函数多行合并
数据仓库·hive·hadoop