Hive 日期处理函数汇总

Hive 日期处理函数汇总

最近项目处理日期操作比较繁杂,使用Hive的日期函数也较频繁

1. 加减日期

  1. date_add('日期字符串',int值) :把一个字符串日期格式加n天,n为int值

    select date_add('2023-12-31',7);

    结果:

    2024-01-07

  2. date_sub('日期字符串',int值) :把一个字符串日期格式减n天,n为int值

    select date_sub('2024-01-2',7);

    结果:

    2023-12-26

2. 时间戳/格式化日期字符串互相转换,格式化日期

  1. from_unixtime(时间戳,'pattern') : 从 时间戳格式化日期字符串.'pattern'是日期格式化模式字符串

    hive> select from_unixtime(1704788052,'yyyy-MM-dd HH:dd:ss');

    结果:

    2024-01-09 16:09:12

  2. unix_timestamp('日期字符串','pattern') :从格式化日期字符串时间戳 .

    select unix_timestamp('2023/11/22','yyyy/MM/dd');

    结果:

    1700582400

  3. date_format('日期字符串','pattern') : 把一个字符串日期格式化为指定的格式,日期字符串必须满足yyyy-MM-dd格式

    hive> select date_format('2023-11-22','yyyy-MM-dd HH:mm:ss');

    结果:

    2023-11-22 00:00:00

3. 获取当前时间

  1. current_date() : 获取当前的日期的字符串

    hive>select current_date();

    结果:

    2024-01-09

  2. current_timestamp() : 获取当前时间字符串,格式为 'yyyy-MM-dd HH:mm:ss.SS'

    hive> select current_date();

    结果:

    2024-01-09 16:12:03.339

  3. unix_timestamp(): 获取当前时间戳

    注:unix_timestamp(void) is deprecated. Use current_timestamp instead.

    hive> select unix_timestamp();

    结果:

    1704788052

10.实战

给定一个表的一列dt_plantdate,该列为'yyyy-MM-dd HH:mm:ss'格式的日期字符串,将该列减14天,结果仍需要保证

'yyyy-MM-dd HH:mm:ss'格式

由于date_sub处理粒度只到yyyy-MM-dd,所以我们不使用date_sub()相减,

而是先统一转为时间戳后相减,处理完再转为字符串

sql 复制代码
SELECT
    from_unixtime(
        unix_timestamp('2024-01-09 16:12:03', 'yyyy-MM-dd HH:mm:ss') - 14 * 24 * 60 * 60,
        'yyyy-MM-dd HH:mm:ss'
    ) AS modified_date
FROM
    your_table;

from_unixtime 里,我们直接时间戳数值相减后再转为标准格式字符串

相关推荐
Macbethad1 天前
使用WPF编写一个多维度伺服系统的程序
大数据·hadoop·wpf
百***35941 天前
从0到1部署Tomcat和添加servlet(IDEA2024最新版详细教程)
hive·servlet·tomcat
howard20051 天前
5.2 Hive插入数据实战
hive·插入数据
杂家1 天前
Hive on Spark && Spark on Hive配置
大数据·数据仓库·hive·hadoop·spark
沧海寄馀生2 天前
Apache Hadoop生态组件部署分享-Hadoop
大数据·hadoop·分布式·apache
毕设源码-朱学姐2 天前
【开题答辩全过程】以 基于Hadoop的豆瓣电影数据分析系统设计与实现为例,包含答辩的问题和答案
大数据·hadoop·分布式
@小红花2 天前
从零到精通 Hadoop 的系统学习文档
大数据·hadoop·学习
BD_Marathon2 天前
java.io.FileNotFoundException: File does not exist: hdfs://master:9000/sparklog
大数据·hadoop·hdfs
sunxunyong2 天前
flink/spark/hive 使用paimon
hive·flink·spark
howard20052 天前
5.4 Hive删除数据实战
hive·删除数据