Hive的时间操作函数

目录

前言

hive 里面的时间函数有很多,今天单讲dayofweek函数,背景:有时候不仅要出日报,还要出周报,需要很多天归为同一周,求sum或者均值;

函数使用介绍

在Hive中,可以使用dayofweek()函数来计算某个日期是一周的第几天。该函数的语法如下:

sql 复制代码
dayofweek(date)

其中,date表示要计算的日期,可以是一个日期字符串或者一个日期类型的列名。

dayofweek()函数返回一个整数,表示日期所在周的第几天,返回值范围为1-7,其中1表示周日,2表示周一,以此类推。

例如,要计算当前日期是一周的第几天,可以使用以下HiveQL语句:

sql 复制代码
SELECT dayofweek(current_date());

该语句会返回当前日期所在周的第几天,例如,如果当前日期是周三,则返回值为4。

实际使用

判断该天是星期几

sql 复制代码
select 
case when dayofweek('${etl_date}') =1 then '星期日'
     when dayofweek('${etl_date}') =7 then '星期六'
     when dayofweek('${etl_date}') =6 then '星期五'
     when dayofweek('${etl_date}') =5 then '星期四'
     when dayofweek('${etl_date}') =4 then '星期三'
     when dayofweek('${etl_date}') =3 then '星期二'
     when dayofweek('${etl_date}') =2 then '星期一'
     else null 
     end as weekday

判断该天对应的周(包含一周开始和结束)

sql 复制代码
select 
case when dayofweek('${etl_date}') =1 then concat(date_add('${etl_date}',-6),'~','${etl_date}')
     when dayofweek('${etl_date}') =7 then concat(date_add('${etl_date}',-5),'~',date_add('${etl_date}',1))
     when dayofweek('${etl_date}') =6 then concat(date_add('${etl_date}',-4),'~',date_add('${etl_date}',2))
     when dayofweek('${etl_date}') =5 then concat(date_add('${etl_date}',-3),'~',date_add('${etl_date}',3))
     when dayofweek('${etl_date}') =4 then concat(date_add('${etl_date}',-2),'~',date_add('${etl_date}',4))
     when dayofweek('${etl_date}') =3 then concat(date_add('${etl_date}',-1),'~',date_add('${etl_date}',5))
     when dayofweek('${etl_date}') =2 then concat('${etl_date}','~',date_add('${etl_date}',6))
     else null 
     end as week_name
相关推荐
一张假钞4 小时前
Spark SQL读写Hive Table部署
hive·sql·spark
想做富婆5 小时前
Hive:窗口函数[ntile, first_value,row_number() ,rank(),dens_rank()]和自定义函数
数据仓库·hive·hadoop
字节全栈_rJF2 天前
Hive 整合 Spark 全教程 (Hive on Spark)
hive·hadoop·spark
weixin_307779132 天前
设计转换Apache Hive的HQL语句为Snowflake SQL语句的Python程序方法
数据仓库·hive·python·sql
想做富婆2 天前
Hive:窗口函数(1)
数据仓库·hive·hadoop
weixin_307779133 天前
本地Apache Hive的Linux服务器集群复制数据到SQL Server数据库的分步流程
数据库·数据仓库·hive·sqlserver
weixin_307779133 天前
在AWS上使用KMS客户端密钥加密S3文件,同时支持PySpark读写和Snowflake导入
大数据·数据仓库·python·spark·云计算
想做富婆3 天前
Hive:复杂数据类型之Map函数
数据仓库·hive·hadoop
想做富婆3 天前
hive:基本数据类型,关于表和列语法
大数据·hive·hadoop
WHYBIGDATA4 天前
Hive安装教程
大数据·hive·hadoop