使用Apache Hive进行大数据分析的关键配置详解

Apache Hive是一个在Hadoop上构建的数据仓库工具,它允许用户通过类似SQL的语言(HiveQL)进行数据查询和分析。在使用Hive进行大数据分析之前,需要配置一些重要的参数以确保系统正常运行并满足特定需求。本文将重点介绍Apache Hive的关键配置属性,涵盖了元数据存储、临时目录、日志设置以及HiveServer2连接等方面。

1. 元数据存储配置

Apache Hive使用元数据存储来管理表定义、分区、列统计等信息。配置元数据存储的关键属性如下:

  • javax.jdo.option.ConnectionURL: 设置连接到元数据存储(如MySQL)的URL,包括数据库地址、端口、数据库名称等信息。
  • javax.jdo.option.ConnectionDriverName: 指定用于连接元数据存储的JDBC驱动程序类名。
  • javax.jdo.option.ConnectionUserNamejavax.jdo.option.ConnectionPassword: 指定连接到元数据存储所需的用户名和密码。

2. Hive执行过程设置

在执行查询和分析过程中,Hive可能会生成临时数据和日志。以下是与执行过程相关的配置属性:

  • hive.exec.local.scratchdir: 指定Hive执行过程中的临时目录。
  • hive.querylog.locationhive.server2.logging.operation.log.location: 分别设置Hive查询和操作日志的存储位置。
  • hive.downloaded.resources.dir: 设置远程资源下载的临时目录。

3. Hive表数据存储配置

Hive表中存储的数据需要指定存放位置的配置:

  • hive.metastore.warehouse.dir: 指定Hive表数据存储的根目录。

4. HiveServer2连接设置

HiveServer2是Hive提供的服务,用于允许远程客户端连接和执行查询。以下是HiveServer2连接相关的属性:

  • hive.metastore.uris: 指定Hive元数据服务的URI,用于请求远程存储的元数据。
  • hive.server2.thrift.porthive.server2.thrift.bind.host: 分别指定HiveServer2的端口号和运行HiveServer2服务的主机。
  • beeline.hs2.connection.userbeeline.hs2.connection.password: 用于Beeline连接到HiveServer2所需的用户名和密码。

5. hive配置实例

xml 复制代码
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

<!--元数据连接字符串,使用MySQL存储元数据信息-->

<property>

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://node01:3306/metastore?

createDatabaseIfNoExitst=true&useSSL=false&serverTimezone=UTC&allowPublicKeyRetrieva

l=true</value>

</property>

<!--元数据连接驱动类名-->

<property>

<name>javax.jdo.option.ConnectionDriverName</name>

<value>com.mysql.cj.jdbc.Driver</value>

</property>

<!--元数据连接时的用户名-->

<property>

<name>javax.jdo.option.ConnectionUserName</name>

<value>root</value></property>

<!--元数据连接时的用户密码-->

<property>

<name>javax.jdo.option.ConnectionPassword</name>

<value>123456</value>

</property>

<!--HDFS路径,Hive使用该目录存储不同 map/reduce 阶段的执行计划和这些阶段的中间输出结果。-->

<property>

<name>hive.exec.local.scratchdir</name>

<value>/hive/tmp</value>

</property>

<!--HDFS路径,元数据库位置-->

<property>

<name>hive.metastore.warehouse.dir</name>

<value>/hive/warehouse</value>

</property>

<!--本地路径,Hive查询日志所在的目录,如果该值为空,将不创建查询日志-->

<property>

<name>hive.querylog.location</name>

<value>/tmp/hive/logs</value>

</property>

<!--本地路径,Hive操作日志-->

<property>

<name>hive.server2.logging.operation.log.location</name>

<value>/tmp/hive/logs</value>

</property>

<!--本地路径,远程资源下载的临时目录-->

<property>

<name>hive.downloaded.resources.dir</name>

<value>/tmp/hive/resources</value>

</property>

<!--目标元数据库,Hive连接到该URI,请求远程存储的元数据。-->

<property>

<name>hive.metastore.uris</name>

<value>thrift://node01:9083</value>

</property>

<!--hiveserver2服务默认的端口号-->

<property>

<name>hive.server2.thrift.port</name>

<value>10000</value>

</property>

<!--运行hiveserver2服务的主机-->

<property>

<name>hive.server2.thrift.bind.host</name>

<value>node01</value>

</property>

<!--运行hiveserver2服务的用户名-->

<property>

<name>beeline.hs2.connection.user</name>

<value>root</value>

</property><!--运行hiveserver2服务的密码-->

<property>

<name>beeline.hs2.connection.password</name>

<value>123456</value>

</property>

</configuration>

6. 重启HiveServer2服务:

保存并退出 hive-site.xml 文件后,重新启动HiveServer2服务以使更改生效。

相关推荐
计算机毕设-小月哥1 小时前
完整源码+技术文档!基于Hadoop+Spark的鲍鱼生理特征大数据分析系统免费分享
大数据·hadoop·spark·numpy·pandas·计算机毕业设计
Jinkxs1 小时前
AI重塑金融风控:从传统规则到智能模型的信贷审批转型案例
大数据·人工智能
时序数据说8 小时前
时序数据库市场前景分析
大数据·数据库·物联网·开源·时序数据库
2501_9301040413 小时前
GitCode 疑难问题诊疗:全方位指南
大数据·elasticsearch·gitcode
健康平安的活着13 小时前
es7.17.x es服务yellow状态的排查&查看节点,分片状态数量
大数据·elasticsearch·搜索引擎
念念010713 小时前
基于MATLAB多智能体强化学习的出租车资源配置优化系统设计与实现
大数据·人工智能·matlab
sunxinyu15 小时前
曲面/线 拟合gnuplot
大数据·线性回归·数据处理·数据拟合·二维三维空间数据
专注API从业者16 小时前
基于 Flink 的淘宝实时数据管道设计:商品详情流式处理与异构存储
大数据·前端·数据库·数据挖掘·flink
淡酒交魂17 小时前
「Flink」业务搭建方法总结
大数据·数据挖掘·数据分析
mask哥17 小时前
详解flink java基础(一)
java·大数据·微服务·flink·实时计算·领域驱动