【Hadoop实训】Hive 数据操作②

延续上一篇文章,不懂的宝子们请看以下链接:

【Hadoop实训】Hive 数据操作①-CSDN博客


目录

[一、Group by 语句](#一、Group by 语句)

(1)、计算emp表每个部门的平均工资

(2)、计算emp表每个部门中每个岗位的最高工资

[二、Having 语句](#二、Having 语句)

(1)、求每个部门的平均工资

(2)、求每个部门的平均工资大于22000的部门

[三、Order by 语句](#三、Order by 语句)

(1)、查询员工信息,按工资降序排列

(2)、按照部门和工资升序排序

[四、Sort by语句](#四、Sort by语句)

(1)、设置reduce个数

(2)、查看设置reduce个数

(3)、根据部门编号降序查看员工信息

[(4) 、将在询结果导入到文件中(按照部门编号降序排序)](#(4) 、将在询结果导入到文件中(按照部门编号降序排序))

[五、Distribute by](#五、Distribute by)

[六、Cluster by](#六、Cluster by)

[七、Join 操作](#七、Join 操作)

[(1) 、根据员工表和部门表中的部门编号相等,查询员工编号、员工名称和部门编号:](#(1) 、根据员工表和部门表中的部门编号相等,查询员工编号、员工名称和部门编号:)

(2)、左外连接

(3)、右外连接

(4)、满外连接


一、Group by 语句

(1)、计算emp表每个部门的平均工资

select t.deptno,avg(t.sal) avg_ sal from emp t group by t.deptno;

(2)、计算emp表每个部门中每个岗位的最高工资

select t.deptno, t.job,max(t.sal) max_sal from emp t group by t.deptno, t.job;

二、Having 语句

(1)、求每个部门的平均工资

select deptno,avg(sal) from emp group by deptno;

(2)、求每个部门的平均工资大于22000的部门

select deptno,avg(sal) avg_sal from emp group by deptno having avg_sal >2000;

三、Order by 语句

(1)、查询员工信息,按工资降序排列

select * from emp order by sal desc;

(2)、按照部门和工资升序排序

select ename, deptno, sal from emp order by deptno,sal;

四、Sort by语句

(1)、设置reduce个数

set mapreduce.job.reduces=3;

(2)、查看设置reduce个数

set mapreduce.job.reduces;

(3)、根据部门编号降序查看员工信息

select * from emp sort by empno desc;

(4) 、将在询结果导入到文件中(按照部门编号降序排序)

insert overwrite local directory '/root/sortby-result' select * from emp  sort by deptno desc;

五、Distribute by

六、Cluster by

以下两种写法等价:

select * from emp cluster by deptno;
select * from emp distribute by deptno sort by deptno;

七、Join 操作

(1) 、根据员工表和部门表中的部门编号相等,查询员工编号、员工名称和部门编号:

select e.empno, e.ename,d.deptno,d.dname from emp e join dept d on e.deptno=d.deptno;

(2)、左外连接

Join操作符左边表中符合条件的所有记录将会被返回。

select e.empno, e.ename,d.deptno,d.dname from emp e left join dept d on e.deptno=d.deptno;

(3)、右外连接

Join操作符右边表中符合条件的所有记录将会被返回。

select e.empno, e.ename,d.deptno,d.dname from emp e right join dept d on e.deptno=d.deptno;

(4)、满外连接

返回所有表中符合条件的所有记录,如果任一-表的指定字段没有符合条件的值的话,那么就使用NULL值替代。

select e.empno, e.ename,d.deptno,d.dname from emp e full join dept d on e.deptno=d.deptno;

在使用Join语句时,如果想限制输出结果,可以在Join语句后面添加Where语句,进行过滤。

select e.empno, e.ename,d.deptno,d.dname from emp e full join dept d on e.deptno=d.deptno where d.deptno=20;

学习到这里就完结啦~不懂的宝子请私信哦!

相关推荐
PersistJiao1 小时前
在 Spark RDD 中,sortBy 和 top 算子的各自适用场景
大数据·spark·top·sortby
2301_811274311 小时前
大数据基于Spring Boot的化妆品推荐系统的设计与实现
大数据·spring boot·后端
Yz98761 小时前
hive的存储格式
大数据·数据库·数据仓库·hive·hadoop·数据库开发
青云交1 小时前
大数据新视界 -- 大数据大厂之 Hive 数据导入:多源数据集成的策略与实战(上)(3/ 30)
大数据·数据清洗·电商数据·数据整合·hive 数据导入·多源数据·影视娱乐数据
lzhlizihang1 小时前
python如何使用spark操作hive
hive·python·spark
武子康1 小时前
大数据-230 离线数仓 - ODS层的构建 Hive处理 UDF 与 SerDe 处理 与 当前总结
java·大数据·数据仓库·hive·hadoop·sql·hdfs
武子康1 小时前
大数据-231 离线数仓 - DWS 层、ADS 层的创建 Hive 执行脚本
java·大数据·数据仓库·hive·hadoop·mysql
时差9531 小时前
Flink Standalone集群模式安装部署
大数据·分布式·flink·部署
锵锵锵锵~蒋2 小时前
实时数据开发 | 怎么通俗理解Flink容错机制,提到的checkpoint、barrier、Savepoint、sink都是什么
大数据·数据仓库·flink·实时数据开发
二进制_博客2 小时前
Flink学习连载文章4-flink中的各种转换操作
大数据·学习·flink