多维时序 | Matlab基于TCN-Transformer+LSTM双输入神经网络时间序列预测

多维时序 | Matlab基于TCN-Transformer+LSTM双输入神经网络时间序列预测

目录

效果一览

基本介绍

1.Matlab基于TCN-Transformer+LSTM双输入神经网络时间序列预测(完整源码和数据)

2.输入多个特征,输出单个变量,考虑历史特征的影响,多变量时间序列预测;程序内注释详细,excel数据,直接替换数据就可以用。

3.程序语言为matlab,程序可出预测效果图,迭代优化图,相关分析图,运行环境matlab2020b及以上。评价指标包括:R2、RPD、MSE、RMSE、MAE、MAPE等。

4.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。

程序设计

  • 完整程序和数据下载私信博主回复Matlab基于TCN-Transformer+LSTM双输入神经网络时间序列预测
matlab 复制代码
%%  划分数据集
for i = 1: num_samples - kim - zim + 1
    res(i, :) = [reshape(result(i: i + kim - 1, :), 1, kim * or_dim), result(i + kim + zim - 1, :)];
end

%%  数据集分析
outdim = 1;                                  % 最后一列为输出
num_size = 0.7;                              % 训练集占数据集比例
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征维度

%%  划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);

P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);

%%  数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);

[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);

%%  转置以适应模型
p_train = p_train'; p_test = p_test';
t_train = t_train'; t_test = t_test';

%%  参数设置
fun = @getObjValue;    % 目标函数
dim = 2;               % 优化参数个数
lb  = [0.1, 0.1];      % 优化参数目标下限
ub  = [ 800,  800];    % 优化参数目标上限
pop = 20;              % 种群数量
Max_iteration = 30;    % 最大迭代次数   

%%  优化算法
[Best_score,Best_pos, curve] = SSA(pop, Max_iteration, lb, ub, dim, fun); 

%%  获取最优参数
bestc = Best_pos(1, 1);  
bestg = Best_pos(1, 2); 

参考资料

1\] https://blog.csdn.net/kjm13182345320/article/details/128163536?spm=1001.2014.3001.5502 \[2\] https://blog.csdn.net/kjm13182345320/article/details/128151206?spm=1001.2014.3001.5502

相关推荐
雲_kumo2 小时前
深入理解RNN及其变体:从传统RNN到LSTM、GRU(附PyTorch实战)
rnn·gru·lstm
johnny23310 小时前
Transformer基础之注意力机制
transformer
大山同学11 小时前
CNN手写数字识别minist
人工智能·神经网络·cnn
一车小面包11 小时前
Transformer Decoder 中序列掩码(Sequence Mask / Look-ahead Mask)
人工智能·深度学习·transformer
硬汉嵌入式11 小时前
Matlab2025b发布,全新的Simulink示波器
matlab·simulink
渡我白衣13 小时前
深度学习入门(一)——从神经元到损失函数,一步步理解前向传播(下)
人工智能·深度学习·神经网络
2401_8414956415 小时前
预训练基础模型简介
gpt·语言模型·自然语言处理·bert·transformer·大语言模型·预训练
机器学习之心19 小时前
一个基于自适应图卷积神经微分方程(AGCNDE)的时空序列预测Matlab实现。这个模型结合了图卷积网络和神经微分方程,能够有效捕捉时空数据的动态演化规律
人工智能·深度学习·matlab·时空序列预测
西猫雷婶1 天前
CNN卷积计算
人工智能·神经网络·cnn
lyx33136967591 天前
#深度学习基础:神经网络基础与PyTorch
pytorch·深度学习·神经网络·参数初始化