负荷预测 | Matlab基于Transformer-LSTM多变量时间序列多步预测

目录

效果一览



基本介绍

1.Matlab基于Transformer-LSTM多变量时间序列多步预测;

2.多变量时间序列数据集(负荷数据集),采用前96*2个时刻预测的特征和负荷数据预测未来96个时刻的负荷数据;

3.excel数据方便替换,运行环境matlab2023及以上,展示最后96个时间步的预测对比图,评价指标MAE、MAPE、RMSE、MSE、R2;

注:程序和数据放在一个文件夹。

4.程序语言为matlab,程序可出预测效果图,指标图;

5.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。

程序设计

  • 完整程序和数据获取方式私信博主回复Matlab基于Transformer-LSTM多变量时间序列多步预测。
python 复制代码
%  数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);
​
[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);
​
%%  数据平铺
​
for i = 1:size(p_train,2)
    trainD{i,:} = (reshape(p_train(:,i),or_dim,[]));
end
​
​
​
for i = 1:size(p_test,2)
    testD{i,:} = (reshape(p_test(:,i),or_dim,[]));
end
​
​
targetD =  t_train';
targetD_test  =  t_test';
​
%% 模型
numChannels = or_dim;
maxPosition = 256*2;
numHeads = 4;
numKeyChannels = numHeads*32;
layers = [ 
    sequenceInputLayer(numChannels,Name="input")
    positionEmbeddingLayer(numChannels,maxPosition,Name="pos-emb");
    additionLayer(2, Name="add")
options = trainingOptions(solver, ...
    'Plots','none', ...
    'MaxEpochs', maxEpochs, ...
    'MiniBatchSize', miniBatchSize, ...
    'Shuffle', shuffle, ...
    'InitialLearnRate', learningRate, ...
    'GradientThreshold', gradientThreshold, ...
    'ExecutionEnvironment', executionEnvironment);
​

参考资料

1\] http://t.csdn.cn/pCWSp \[2\] https://download.csdn.net/download/kjm13182345320/87568090?spm=1001.2014.3001.5501 \[3\] https://blog.csdn.net/kjm13182345320/article/details/129433463?spm=1001.2014.3001.5501

相关推荐
木头左2 天前
基于LSTM与3秒级Tick数据的金融时间序列预测实现
人工智能·金融·lstm
JoannaJuanCV3 天前
大语言模型基石:Transformer
人工智能·语言模型·transformer
兔子不吃草~3 天前
Transformer学习记录与CNN思考
学习·cnn·transformer
苏苏susuus3 天前
NLP:Transformer之self-attention(特别分享3)
人工智能·自然语言处理·transformer
小彭律师3 天前
基于因果推理与Transformer的金融理财产品智能推荐系统
深度学习·金融·transformer
tyatyatya3 天前
MATLAB中进行视觉检测入门教程
开发语言·matlab·视觉检测
补三补四3 天前
LSTM 深度解析:从门控机制到实际应用
人工智能·rnn·lstm
蒋星熠3 天前
深度学习实战指南:从神经网络基础到模型优化的完整攻略
人工智能·python·深度学习·神经网络·机器学习·卷积神经网络·transformer
孤心亦暖3 天前
RNN,GRU和LSTM的简单实现
rnn·gru·lstm
时空无限4 天前
说说transformer 中的掩码矩阵以及为什么能掩盖住词语
人工智能·矩阵·transformer