时间序列

七夜zippoe2 天前
人工智能·python·机器学习·arima·时间序列·prophet
时间序列分析实战:从平稳性检验到Prophet与LSTM预测目录摘要1 引言:时间序列分析的商业价值与挑战1.1 时间序列分析的技术演进1.2 时间序列分析架构总览
懒羊羊吃辣条7 天前
人工智能·深度学习·机器学习·时间序列
电力负荷预测怎么做才不翻车做电力负荷预测的时候,经常会陷入一种很努力但不踏实的状态:模型写了好几版、特征也堆了不少,指标看着也不错,但心里总会犯嘀咕——这个提升到底是模型真强,还是评估或者baseline给了错觉?
deephub17 天前
人工智能·python·机器学习·特征工程·时间序列
使用 tsfresh 和 AutoML 进行时间序列特征工程时间序列无处不在,心电图上的心跳、股票价格、家庭智能电表读数,甚至句子中词语——这些都是时间序列。它们的特殊之处在于顺序:过去影响未来,相邻的数据点往往高度相关。
杰瑞哥哥18 天前
python·时间序列·金融工程
【时间序列与深度学习】(一)经济计量基础ARIMA模型目录一、ARIMA是什么?二、ARIMA的三个核心组成部分三、什么是平稳时间序列?四、为什么差分方法能够得到平稳时间序列?
All The Way North-25 天前
rnn·深度学习·nlp·循环神经网络·时间序列
RNN基本介绍循环神经网络(RNN)入门介绍循环神经网络(Recurrent Neural Network,简称 RNN)是一类专门用于处理序列数据的神经网络。与传统的前馈神经网络(Feedforward Neural Network)不同,RNN 具有“记忆”能力,可以利用之前的信息来影响当前的输出。
悟乙己1 个月前
机器学习·大模型·llm·时间序列·预测
使用TimeGPT进行时间序列预测案例解析摘要:原文探讨了TimeGPT,一个为时间序列预测而设计的生成式预训练Transformer模型。文章详细介绍了其零样本推理、微调能力、API访问、外生变量支持、多序列预测等功能,并提供了使用Python进行数据准备、预测、趋势分类和不确定性量化的代码示例。
課代表1 个月前
开发语言·python·信息可视化·数据分析·变量·时间序列·文本分析
Python 数据可视化:从单变量到多变量Python凭借其强大的可视化库(如Matplotlib、Seaborn)成为进行EDA的首选工具。本文基于一份实用的“Python数据可视化速查表”,系统介绍从单变量到多变量、从时间序列到文本数据的可视化方法,并提供代码示例与扩展解读,助你高效完成数据探索。
甄心爱学习1 个月前
论文笔记·时间序列
EventTSF的训练与预测逻辑从公式和数据流的角度来剖析《EventTSF: Event-Aware Non-Stationary Time Series Forecasting》的训练和预测逻辑。
deephub1 个月前
人工智能·python·机器学习·特征工程·时间序列
机器学习时间特征处理:循环编码(Cyclical Encoding)与其在预测模型中的应用做过电力负荷预测或者交通预测朋友,大概率都处理过时间特征。这里最直接的做法通常是把时间(比如分钟或小时)直接扔进模型里。这看起来逻辑自洽,但存在这一个大坑,就是“午夜悖论”。
Java后端的Ai之路2 个月前
人工智能·aigc·时间序列·算法模型·分析式ai
【分析式AI】-时间序列模型一文详解专业术语解释: 时间序列是按照时间顺序排列的一系列数据点,通常是在连续等间隔的时间点上收集的数据。它建立了观察结果与时间变化的关系,可用于预测未来的趋势和模式。
科学最TOP2 个月前
大数据·人工智能·算法·机器学习·时间序列
xLSTM-Mixer:基于记忆混合的多变量时间序列预测论文标题:xLSTM-Mixer: Multivariate Time Series Forecasting by Mixing via Scalar Memories
deardao2 个月前
人工智能·机器学习·时间序列·事件检测
【时序异常检测综述】十年回顾:深入研究时间序列异常检测图1所示。不同时间序列应用和异常类型的示例。请各位同学给我点赞,激励我创作更好、更多、更优质的内容!^_^
科学最TOP2 个月前
人工智能·深度学习·神经网络·机器学习·时间序列
AAAI25|基于神经共形控制的时间序列预测模型论文标题:Neural Conformal Control for Time Series Forecasting
deardao2 个月前
人工智能·时间序列·事件检测
【AAAI-26:时序概念漂移】DeepBooTS:用于时序漂移的双流残差增强DeepBooTS 是针对时间序列预测中概念漂移问题提出的双流残差递减提升模型,通过偏差-方差分解理论证明集成学习可在不增加偏差的前提下降低预测方差,核心创新包括输入与标签双流分解、逐层残差校正及门控系数自适应调节,在多元、单变量及大规模数据集上均超越18种SOTA方法,实现 15.8% 的平均性能提升,同时兼具高通用性、可解释性及深度扩展能力(支持16层深度而无过拟合)。
deardao2 个月前
时间序列·事件检测
【事件检测】用于事件预测的文本增强多粒度时态图学习请各位同学给我点赞,激励我创作更好、更多、更优质的内容!^_^关注微信公众号,获取更多资讯MTG是端到端的文本增强时序图学习模型,通过三个核心模块捕捉多粒度历史信息,结合文本特征提升预测性能,整体架构如图2所示。
deardao2 个月前
数据挖掘·时间序列
ChatTime:连接数值与文本数据的统一多模态时间序列基础模型人类专家通常会整合数值和文本多模态信息来分析时间序列。然而,大多数传统的深度学习预测模型仅依赖单模态的数值数据,在单个数据集上使用固定长度的窗口进行训练和预测,无法适应不同的场景。性能强大的预训练大型语言模型为时间序列分析带来了新的机遇。但现有的方法要么训练效率低下,要么无法处理文本信息,要么缺乏零样本预测能力。在本文中,我们创新性地将时间序列建模为一种“外语”,并构建了ChatTime——一个用于时间序列和文本处理的统一框架。作为一款即开即用的多模态时间序列基础模型,ChatTime具备零样本预测能力,
科学最TOP2 个月前
人工智能·深度学习·神经网络·机器学习·时间序列
IJCAI25|如何平衡文本与时序信息的融合适配?论文标题:MedualTime: A Dual-Adapter Language Model for Medical Time Series-Text Multimodal Learning
彼岸花苏陌2 个月前
代码分析·时间序列·patchtst
PatchTST代码阅读分别从两部分进行讲解 1.patch部分 2.Encoder部分 3.预测部分(Flatten部分)主要是class PatchTST_backbone 和TSTiEncoder(分patch主要核心)
科学最TOP2 个月前
人工智能·深度学习·机器学习·时间序列
KDD25|BLAST:面向通用预测的平衡采样时序语料库现有的通用时间序列预测模型虽然通过大规模预训练实现了跨领域的零样本预测能力,但训练数据的多样性问题尚未得到充分研究。数据集往往存在固有偏差和不平衡分布,仅三个数据集就占总数据量的88.2%,这种偏斜分布会导致原始数据中出现大量重复模式,损害整体数据多样性。现有采样策略(如朴素采样和分层采样)也无法充分纠正大规模时间序列数据中的固有偏差。
科学最TOP2 个月前
人工智能·深度学习·机器学习·时间序列
时间序列的“语言”:从语言模型视角理解时序基础模型论文标题:THE LANGUAGE OF TIME : A LANGUAGE MODEL PER-SPECTIVE ON TIME SERIES FOUNDATION MODELS