Hive基础篇

Hive起源于Facebook,是基于 Hadoop HDFS 分布式文件系统的分布式 数据仓库 架构。它为数据仓库的管理提供了许多功能:数据ETL(抽取、转换和加载)工具、数据存储管理和大型数据集的查询和分析能力。同时Hive还定义了类SQL的语言(HiveQL)。允许用户进行和SQL相似的操作,它可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能。还允许开发人员方便的使用Mapper和Reducer操作,可以将SQL语句转换为MapReduce任务运行。

Hive的特点

Hive作为Hadoop之上的数据仓库处理工具,它所有的数据都是存储在Hadoop兼容的文件系统中。Hive在加载数据过程中不会对数据进行任何的修改,只是将数据移动到HDFS中Hive设定的目录下。因此,Hive不支持对数据的修改和添加,所有的数据都是在加载的时候确定的。

Hive 最大的特点是通过类 SQL 来分析大数据,而避免了写 MapReduce 程序来分析数据,这样使得分析数据更容易。

数据是存储在 HDFS 上的,Hive 本身并不提供数据的存储功能

Hive 是将数据映射成数据库和一张张的表,库和表的元数据信息一般存在关系型数据库上(比如 MySQL)。

数据存储方面:它能够存储很大的数据集,并且对数据完整性、格式要求并不严格。

数据处理方面:不适用于实时计算和响应,使用于离线分析。

Hive体系架构

用户接口:包括CLI,JDBC/ODBC,WebUI等方式。

元数据Metastore:通常存储在关系数据库如mysql,derby中。元数据包括:表名,表所属的数据库,表的列/分区字段,表的属性(是否为外部表等),表的数据所在目录等信息。

Driver:包括解释器、编译器、优化器、执行器。HiveQL查询语句从词法分析。语法分析、编译、优化以及查询计划生成。生成的查询计划存储在HDFS中,并在后面的MapReduce中进行调用执行。

解析器:将SQL转换成抽象的语法树AST。

编译器:将抽象语法树AST编译生成逻辑执行计划。

优化器:将逻辑执行计划进行优化。

执行器:把逻辑执行计划转换成可以运行的物理执行计划。

Hadoop:使用HDFS进行存储,利用MapReduce进行计算。

Hive运行机制

编写HiveQL,并提交;

Hive解析查询语句,并生成查询计划;

Hive将查询计划转化为MR作业;

运行MR作业,得到最终结果。

Hive与关系数据库的区别

相关推荐
程序员小羊!2 小时前
数据仓库&OLTP&OLAP&维度讲解
数据仓库
最初的↘那颗心3 小时前
Flink Stream API - 源码开发需求描述
java·大数据·hadoop·flink·实时计算
Lx3524 小时前
MapReduce作业调试技巧:从本地测试到集群运行
大数据·hadoop
BYSJMG4 小时前
计算机大数据毕业设计推荐:基于Spark的气候疾病传播可视化分析系统【Hadoop、python、spark】
大数据·hadoop·python·信息可视化·spark·django·课程设计
励志成为糕手4 小时前
大数据MapReduce架构:分布式计算的经典范式
大数据·hadoop·mapreduce·分布式计算·批处理
RestCloud7 小时前
ETLCloud中的数据转化规则是什么意思?怎么执行
数据库·数据仓库·etl
老刘聊集成7 小时前
数据一致性校验:ETL保证信息准确无误的关键步骤
数据仓库·etl
计算机毕设-小月哥10 小时前
大数据毕业设计选题推荐:基于Hadoop+Spark的城镇居民食品消费分析系统源码
大数据·hadoop·课程设计
Viking_bird18 小时前
centos 7.5 + Hadoop 3.2.4 集群搭建
linux·运维·服务器·hadoop·centos
喂完待续18 小时前
【Tech Arch】Spark为何成为大数据引擎之王
大数据·hadoop·python·数据分析·spark·apache·mapreduce