L2 数据仓库和Hive环境配置

1.数据仓库架构

  • 数据仓库DW主要是一个用于存储,分析,报告的数据系统。
  • 数据仓库的目的是面向分析的集成化数据环境,分析结果为企业提供决策支持。
  • -DW不产生和消耗数据
  • 结构数据:数据库中数据,CSV文件 直接导入DW
  • 非结构数据:基本数据处理后导入DW
    针对部门需求可以做不同DW,为一个数据集市,最终目的是做一个数据应用,报表等

数据仓库分层

  • 数据仓库分层:针对多种数据表的情况,根据业务场景进行分层融合和合并。

用于报表的数据,每个指标出现了几次 ------ 应用层

二、怎么实现数仓 - Hive

  • Hive是基于Hadop的DW工具,用来进行数据提取,转化,加载,是一种大规模数据机制。
  • Hive数据仓库工作将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成MapReduce任务来执行。

    利用Hive可以直接在SQL上层编写语句,通过SQL Parser解析器转换为Java程序。
    元数据组件存放映射的表。

Hive特点:

  • 适合ETL,报表查询,数据分析等数据仓库任务
  • Hive支持运行在不同的计算框架上,MapReduce,Spark等
  • 支持Java数据库连接
  • 避免编写复杂的MapReduce任务
  • 可直接使用Hadoop文件系统中的数据

Hive和Hadoop

  • Hive利用HDFS存储数据,MapReduce查询分析数据
  • Hadoop是自己实现了上述两种能力。

Hive适应场景

  • Hive适用于结构化数据的离线分析
  • Hive的执行延迟较高
  • Hive适合处理大批量数据

Hive与MySql

  • Hive面向分析,MySql面向业务

3.Hive安装

最终直接写SQL语句就行,不要管MapReduce任务

相关推荐
Data 3171 小时前
Hive数仓操作(十七)
大数据·数据库·数据仓库·hive·hadoop
CHICX122912 小时前
【Hadoop】改一下core-site.xml和hdfs-site.xml配置就可以访问Web UI
xml·大数据·hadoop
极客先躯20 小时前
Hadoop krb5.conf 配置详解
大数据·hadoop·分布式·kerberos·krb5.conf·认证系统
BD_Marathon1 天前
设置hive本地模式
数据仓库·hive·hadoop
Data 3171 天前
Hive数仓操作(十一)
大数据·数据库·数据仓库·hive·hadoop
Data 3171 天前
Hive数仓操作(九)
大数据·数据仓库·hive·hadoop
晚睡早起₍˄·͈༝·͈˄*₎◞ ̑̑1 天前
JavaWeb(二)
java·数据仓库·hive·hadoop·maven
朗朗乾坤.py1 天前
Hadoop HDFS命令操作实例
hadoop·hdfs·npm
杰哥在此1 天前
Python知识点:如何使用Hadoop与Python进行大数据处理
开发语言·hadoop·python·面试·编程
Data 3171 天前
Hive数仓操作(三)
大数据·数据库·数据仓库·hive·hadoop