hive/spark用法记录

1. cast()更改数据类型

cast(column_name as type)

2. get_dt_date()自定义日期操作函数(返回不带横线的日期)

select get_dt_date();--获取当前日期,返回 20170209

select get_dt_date(get_date(-2));--获取当前日期偏移,转为不带横杆的格式

select get_dt_date('2017-02-02',-2);--20170131

3.ROW_NUMBER(),它为结果集的分区中的每一行分配一个连续的整数。 行号以每个分区中第一行的行号开头。

sql 复制代码
ROW_NUMBER() OVER (
    [PARTITION BY partition_expression, ... ]
    ORDER BY sort_expression [ASC | DESC], ...
)

PARTITION BY子句将结果集划分为分区。 ROW_NUMBER()函数分别应用于每个分区,并重新初始化每个分区的行号。PARTITION BY子句是可选的。如果未指定,ROW_NUMBER()函数会将整个结果集视为单个分区。ORDER BY子句定义结果集的每个分区中的行的逻辑顺序。 ORDER BY子句是必需的,因为ROW_NUMBER()函数对顺序敏感。

4.根据分区查询partitions where

5.插入或覆写数据(INSERT INTO | INSERT OVERWRITE)

执行insert into和insert overwrite操作前需要具备目标表的修改权限(Alter)及源表的元信息读取权限(Describe)。授权操作请参见权限列表

6. 千分位函数percentile(), percentile_approx()

原理点击上面链接

使用方法:1.
2.

7. row_number() over (order by column_name)输出结果会基于order by排序

sql 复制代码
select table.*,row_number() over (order by score)  as rank
from
    (
        select * from table1
		limit 100
) table2

8.extend['dict'] as dict_name

extend把原本是字典的序列扩展成新的一列

比如

user_id gender
1 gender:female
2 gender:male
sql 复制代码
extend['gender'] as gender
|  user_id | gender  |
|     1    |  female |
|     2    |  male  |

9. ${yyyyMMdd,1, day}'

1表示加一天,比如输入 20220801,那么上面的变量出来的日期为20220802;

而如果是-1,则表示往前一天,比如输入20220801,那么上面的变量出来的日期为20220731

10. spark.sql.autoBroadcastJoinThreshold、spark.sql.broadcastTimeout

这个目前还不太清楚具体场景,记录下

属性 默认值 描述
spark.sql.broadcastTimeout 300 广播等待超时时间,单位秒
spark.sql.autoBroadcastJoinThreshold 10485760 (10 MB) 最大广播表的大小。设置为-1可以禁止该功能。当前统计信息仅支持Hive Metastore表
相关推荐
计算机毕业编程指导师3 小时前
【Python大数据项目推荐】基于Hadoop+Django脑卒中风险分析系统源码解析 毕业设计 选题推荐 毕设选题 数据分析 机器学习 数据挖掘
大数据·hadoop·python·计算机·spark·毕业设计·脑卒中
计算机毕业编程指导师3 小时前
【大数据毕设推荐】Hadoop+Spark电影票房分析系统,Python+Django全栈实现 毕业设计 选题推荐 毕设选题 数据分析 机器学习 数据挖掘
大数据·hadoop·python·计算机·spark·毕业设计·电影票房
计算机毕业编程指导师1 天前
【计算机毕设推荐】Python+Spark卵巢癌风险数据可视化系统完整实现 毕业设计 选题推荐 毕设选题 数据分析 机器学习 数据挖掘
hadoop·python·计算机·数据挖掘·spark·毕业设计·卵巢癌
极光代码工作室1 天前
基于大数据的校园消费行为分析系统
大数据·hadoop·python·数据分析·spark
二十六画生的博客2 天前
每个subtask都提交一份快照到hdfs,会把10个小的快照合并成一个大的吗?谁来合并?
大数据·hadoop·hdfs·flink
隐于花海,等待花开2 天前
41.ABS / POW / SQRT 函数深度解析
大数据·hive
千月落2 天前
HDFS数据迁移
大数据·hadoop·hdfs
whuang0943 天前
腾讯云 emr 无法以cosn 写入云存储
spark
隐于花海,等待花开3 天前
40.RAND 函数深度解析
hive·hadoop
howard20054 天前
2.4.3 集群模式运行Spark项目
spark·项目打包·提交运行