【Hadoop实训】Hive 数据操作②

延续上一篇文章,不懂的宝子们请看以下链接:

【Hadoop实训】Hive 数据操作①-CSDN博客


目录

[一、Group by 语句](#一、Group by 语句)

(1)、计算emp表每个部门的平均工资

(2)、计算emp表每个部门中每个岗位的最高工资

[二、Having 语句](#二、Having 语句)

(1)、求每个部门的平均工资

(2)、求每个部门的平均工资大于22000的部门

[三、Order by 语句](#三、Order by 语句)

(1)、查询员工信息,按工资降序排列

(2)、按照部门和工资升序排序

[四、Sort by语句](#四、Sort by语句)

(1)、设置reduce个数

(2)、查看设置reduce个数

(3)、根据部门编号降序查看员工信息

[(4) 、将在询结果导入到文件中(按照部门编号降序排序)](#(4) 、将在询结果导入到文件中(按照部门编号降序排序))

[五、Distribute by](#五、Distribute by)

[六、Cluster by](#六、Cluster by)

[七、Join 操作](#七、Join 操作)

[(1) 、根据员工表和部门表中的部门编号相等,查询员工编号、员工名称和部门编号:](#(1) 、根据员工表和部门表中的部门编号相等,查询员工编号、员工名称和部门编号:)

(2)、左外连接

(3)、右外连接

(4)、满外连接


一、Group by 语句

(1)、计算emp表每个部门的平均工资

复制代码
select t.deptno,avg(t.sal) avg_ sal from emp t group by t.deptno;

(2)、计算emp表每个部门中每个岗位的最高工资

复制代码
select t.deptno, t.job,max(t.sal) max_sal from emp t group by t.deptno, t.job;

二、Having 语句

(1)、求每个部门的平均工资

复制代码
select deptno,avg(sal) from emp group by deptno;

(2)、求每个部门的平均工资大于22000的部门

复制代码
select deptno,avg(sal) avg_sal from emp group by deptno having avg_sal >2000;

三、Order by 语句

(1)、查询员工信息,按工资降序排列

复制代码
select * from emp order by sal desc;

(2)、按照部门和工资升序排序

复制代码
select ename, deptno, sal from emp order by deptno,sal;

四、Sort by语句

(1)、设置reduce个数

复制代码
set mapreduce.job.reduces=3;

(2)、查看设置reduce个数

复制代码
set mapreduce.job.reduces;

(3)、根据部门编号降序查看员工信息

复制代码
select * from emp sort by empno desc;

(4) 、将在询结果导入到文件中(按照部门编号降序排序)

复制代码
insert overwrite local directory '/root/sortby-result' select * from emp  sort by deptno desc;

五、Distribute by

六、Cluster by

以下两种写法等价:

复制代码
select * from emp cluster by deptno;
复制代码
select * from emp distribute by deptno sort by deptno;

七、Join 操作

(1) 、根据员工表和部门表中的部门编号相等,查询员工编号、员工名称和部门编号:

复制代码
select e.empno, e.ename,d.deptno,d.dname from emp e join dept d on e.deptno=d.deptno;

(2)、左外连接

Join操作符左边表中符合条件的所有记录将会被返回。

复制代码
select e.empno, e.ename,d.deptno,d.dname from emp e left join dept d on e.deptno=d.deptno;

(3)、右外连接

Join操作符右边表中符合条件的所有记录将会被返回。

复制代码
select e.empno, e.ename,d.deptno,d.dname from emp e right join dept d on e.deptno=d.deptno;

(4)、满外连接

返回所有表中符合条件的所有记录,如果任一-表的指定字段没有符合条件的值的话,那么就使用NULL值替代。

复制代码
select e.empno, e.ename,d.deptno,d.dname from emp e full join dept d on e.deptno=d.deptno;

在使用Join语句时,如果想限制输出结果,可以在Join语句后面添加Where语句,进行过滤。

复制代码
select e.empno, e.ename,d.deptno,d.dname from emp e full join dept d on e.deptno=d.deptno where d.deptno=20;

学习到这里就完结啦~不懂的宝子请私信哦!

相关推荐
微学AI1 小时前
面向大数据与物联网的下一代时序数据库选型指南:Apache IoTDB 解析与应用
大数据·物联网·时序数据库
人大博士的交易之路1 小时前
今日行情明日机会——20251113
大数据·数据挖掘·数据分析·缠论·道琼斯结构·涨停板
B站计算机毕业设计之家1 小时前
基于Python+Django+双协同过滤豆瓣电影推荐系统 协同过滤推荐算法 爬虫 大数据毕业设计(源码+文档)✅
大数据·爬虫·python·机器学习·数据分析·django·推荐算法
WLJT1231231232 小时前
方寸之间藏智慧:家用电器的进化与生活革新
大数据·人工智能
陈辛chenxin2 小时前
【大数据技术04】数据可视化
大数据·python·信息可视化
wangqiaowq2 小时前
在streampark运行paimon-flink-action-1.20.0.jar
大数据·flink·jar
wangqiaowq2 小时前
基于FLINK + PAIMON + StarRocks 分层构建流式湖仓
大数据
Hello.Reader3 小时前
用 Doris 托底实时明细与聚合Flink CDC Pipeline 的 Doris Sink 实战
大数据·flink
程途拾光1584 小时前
用流程图优化工作流:快速识别冗余环节,提升效率
大数据·论文阅读·人工智能·流程图·论文笔记