hive聚合函数之JOIN原理及案例

1.数据准备

原始数据

创建dept.txt文件,并赋值如下内容,上传HDFS。

bash 复制代码
部门编号 部门名称 部门位置id
10	行政部	1700
20	财务部	1800
30	教学部	1900
40	销售部	1700

创建emp.txt文件,并赋值如下内容,上传HDFS。

bash 复制代码
员工编号 姓名 岗位    薪资  部门
7369	张三	研发	800.00	30
7499	李四	财务	1600.00	20
7521	王五	行政	1250.00	10
7566	赵六	销售	2975.00	40
7654	侯七	研发	1250.00	30
7698	马八	研发	2850.00	30
7782	金九	\N	2450.0	30
7788	银十	行政	3000.00	10
7839	小芳	销售	5000.00	40
7844	小明	销售	1500.00	40
7876	小李	行政	1100.00	10
7900	小元	讲师	950.00	30
7902	小海	行政	3000.00	10
7934	小红明	讲师	1300.00	30

2.创建部门表

bash 复制代码
create table if not exists dept(
    deptno int,    -- 部门编号
    dname string,  -- 部门名称
    loc int        -- 部门位置
)
row format delimited fields terminated by '\t';

创建员工表

bash 复制代码
create table if not exists emp(
    empno int,      -- 员工编号
    ename string,   -- 员工姓名
    job string,     -- 员工岗位(大数据工程师、前端工程师、java工程师)
    sal double,     -- 员工薪资
    deptno int      -- 部门编号
)
row format delimited fields terminated by '\t';

导入数据

bash 复制代码
load data inpath 'hdfs://flinkv1:8020/input/dept.txt' into table dept;
load data inpath 'hdfs://flinkv1:8020/input/emp.txt' into table emp;

2.等值Join

Hive支持通常的sql join语句,但是只支持等值连接,不支持非等值连接。

案例实操

根据员工表和部门表中的部门编号相等,查询员工编号、员工名称和部门名称。

bash 复制代码
select
    e.empno,
    e.ename,
    d.dname
from emp e
         join dept d
              on e.deptno = d.deptno;

3.表的别名

好处

(1)使用别名可以简化查询。

(2)区分字段的来源。

案例实操

合并员工表和部门表。

bash 复制代码
select 
    e.*,
    d.* 
from emp e 
join dept d 
on e.deptno = d.deptno;

4.内连接

内连接:只有进行连接的两个表中都存在与连接条件相匹配的数据才会被保留下来。

bash 复制代码
select
    e.empno,
    e.ename,
    d.deptno
from emp e
         join dept d
              on e.deptno = d.deptno;

5.左外连接

左外连接:join操作符左边表中符合where子句的所有记录将会被返回。

bash 复制代码
select 
    e.empno, 
    e.ename, 
    d.deptno 
from emp e 
left join dept d 
on e.deptno = d.deptno;

6.右外连接

右外连接:join操作符右边表中符合where子句的所有记录将会被返回。

bash 复制代码
select 
    e.empno, 
    e.ename, 
    d.deptno 
from emp e 
right join dept d 
on e.deptno = d.deptno;

7.满外连接

满外连接:将会返回所有表中符合where语句条件的所有记录。如果任一表的指定字段没有符合条件的值的话,那么就使用null值替代。

bash 复制代码
select 
    e.empno, 
    e.ename, 
    d.deptno 
from emp e 
full join dept d 
on e.deptno = d.deptno;

8.多表连接

注意:连接n个表,至少需要n-1个连接条件。例如:连接三个表,至少需要两个连接条件。

创建location.txt文件,并赋值如下内容,上传HDFS。

bash 复制代码
部门位置id  部门位置
1700	北京
1800	上海
1900	深圳
bash 复制代码
create table if not exists location(
    loc int,           -- 部门位置id
    loc_name string   -- 部门位置
)
row format delimited fields terminated by '\t';
bash 复制代码
load data inpath 'hdfs://flinkv1:8020/input/location.txt' into table location;

大多数情况下,Hive会对每对join连接对象启动一个MapReduce任务。本例中会首先启动一个MapReduce job对表e和表d进行连接操作,然后会再启动一个MapReduce job将第一个MapReduce job的输出和表l进行连接操作。

注意:为什么不是表d和表l先进行连接操作呢?这是因为Hive总是按照从左到右的顺序执行的。

9.笛卡尔集

笛卡尔集会在下面条件下产生

(1)省略连接条件

(2)连接条件无效

(3)所有表中的所有行互相连接

10.联合(union & union all)

union&union all上下拼接

union和union all都是上下拼接sql的结果,这点是和join有区别的,join是左右关联,union和union all是上下拼接。union去重,union all不去重。

union和union all在上下拼接sql结果时有两个要求:

(1)两个sql的结果,列的个数必须相同

(2)两个sql的结果,上下所对应列的类型必须一致

案例实操

将员工表30部门的员工信息和40部门的员工信息,利用union进行拼接显示。

bash 复制代码
select 
    *
from emp
where deptno=30
union
select 
    *
from emp
where deptno=40;
相关推荐
阿杜杜不是阿木木3 小时前
基于 Flink 的 HomeAssistant 传感器数据从 Kafka 到 Hive 的存储方案
hive·flink·kafka
大鳥15 小时前
企业级 Hive on Spark 开发规范
hive·hadoop·spark
90的程序爱好者17 小时前
Kettle多张表数据抽取操作步骤
数据库·数据仓库·数据挖掘
QQ12958455041 天前
SSAS - 发货主题数据第1阶
数据仓库·数据分析
Hello.Reader1 天前
Flink × Hive HiveCatalog 一键接入元数据,Flink 直接读写 Hive 表
大数据·hive·flink
Hello.Reader1 天前
Flink + Hive Functions HiveModule、原生聚合加速、复用 Hive UDF/UDTF/UDAF
大数据·hive·flink
brave_zhao1 天前
spoon如何连接carte如何将.ktr任务或者.kjb任务提交个远程carte服务让,carte的服务端来执行 etl脚本的任务呢?
数据仓库·etl
Hello.Reader1 天前
Flink Hive 把 Hive 表变成“可流式消费”的数仓底座
大数据·hive·flink
归去来?2 天前
记录一次从https接口提取25G大文件csv并落表的经历
大数据·数据仓库·hive·python·网络协议·5g·https
無森~2 天前
Hive 函数
hive·hadoop·sql