时序预测 | Matlab基于Transformer多变量时间序列多步预测

目录

效果一览



基本介绍

1.Matlab基于Transformer多变量时间序列多步预测;

2.多变量时间序列数据集(负荷数据集),采用前96个时刻预测的特征和负荷数据预测未来96个时刻的负荷数据;

3.excel数据方便替换,运行环境matlab2023及以上,展示最后96个时间步的预测对比图,评价指标MAE、MAPE、RMSE、MSE、R2;

注:程序和数据放在一个文件夹。

4.程序语言为matlab,程序可出预测效果图,指标图;

5.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。

程序设计

  • 完整程序和数据获取方式私信博主回复Matlab基于Transformer多变量时间序列多步预测
python 复制代码
在单 GPU 上训练。
|============================================================|
|  轮  |  迭代  |    经过的时间     |  小批量 RMSE  |  小批量损失  |  基础学习率  |
|     |      |  (hh:mm:ss)  |            |         |         |
|============================================================|
|   1 |    1 |     00:00:00 |       5.52 |    15.2 |  0.0010 |
|  10 |   50 |     00:00:02 |       4.55 |    10.4 |  0.0010 |
|  20 |  100 |     00:00:04 |       1.57 |     1.2 |  0.0010 |
|  30 |  150 |     00:00:07 |       1.54 |     1.2 |  0.0010 |
|  40 |  200 |     00:00:09 |       0.81 |     0.3 |  0.0010 |
|  50 |  250 |     00:00:11 |       1.19 |     0.7 |  0.0010 |
|============================================================|
训练结束: 已完成最大轮数。
历时 12.257705 秒。
1.均方差(MSE):76636.1226
2.根均方差(RMSE):276.8323
3.平均绝对误差(MAE):226.3397
4.平均相对百分误差(MAPE):5.2361%
5.R2:90.0432%
                    MAE        MAPE       MSE      RMSE       R^2  
                   ______    ________    _____    ______    _______

    Transformer    226.34    0.052361    76636    276.83    0.90043

%% Set the hyper parameters for unet training
options0 = trainingOptions('adam', ...                 % 优化算法Adam
    'MaxEpochs', 150, ...                            % 最大训练次数
    'GradientThreshold', 1, ...                       % 梯度阈值
    'InitialLearnRate', 0.01, ...         % 初始学习率
    'LearnRateSchedule', 'piecewise', ...             % 学习率调整
    'LearnRateDropPeriod',100, ...                   % 训练100次后开始调整学习率
    'LearnRateDropFactor',0.01, ...                    % 学习率调整因子
    'L2Regularization', 0.001, ...         % 正则化参数
    'ExecutionEnvironment', 'cpu',...                 % 训练环境
    'Verbose', 1, ...                                 % 关闭优化过程
    'Plots', 'none');                    % 画出曲线

参考资料

1\] http://t.csdn.cn/pCWSp \[2\] https://download.csdn.net/download/kjm13182345320/87568090?spm=1001.2014.3001.5501 \[3\] https://blog.csdn.net/kjm13182345320/article/details/129433463?spm=1001.2014.3001.5501

相关推荐
北京地铁1号线1 小时前
GPT(Generative Pre-trained Transformer)模型架构与损失函数介绍
gpt·深度学习·transformer
星马梦缘2 小时前
Matlab机器人工具箱使用2 DH建模与加载模型
人工智能·matlab·机器人·仿真·dh参数法·改进dh参数法
机器学习之心4 小时前
分解+优化+预测!CEEMDAN-Kmeans-VMD-DOA-Transformer-LSTM多元时序预测
lstm·transformer·kmeans·多元时序预测·双分解
会写代码的饭桶5 小时前
通俗理解 LSTM 的三门机制:从剧情记忆到科学原理
人工智能·rnn·lstm·transformer
闲看云起7 小时前
从BERT到T5:为什么说T5是NLP的“大一统者”?
人工智能·语言模型·transformer
RickyWasYoung7 小时前
【代码】matlab-遗传算法工具箱
开发语言·matlab
爆改模型8 小时前
【ICCV2025】计算机视觉|即插即用|ESC:颠覆Transformer!超强平替,ESC模块性能炸裂!
人工智能·计算机视觉·transformer
星马梦缘9 小时前
Matlab机器人工具箱使用1 简单的描述类函数
matlab·矩阵·机器人·位姿·欧拉角·rpy角
nju_spy10 小时前
李沐深度学习论文精读(二)Transformer + GAN
人工智能·深度学习·机器学习·transformer·gan·注意力机制·南京大学
跳跳糖炒酸奶12 小时前
第六章、从transformer到nlp大模型:编码器-解码器模型 (Encoder-Decoder)
深度学习·自然语言处理·transformer