多维时序 | Matlab基于TCN-Transformer+LSTM双输入神经网络时间序列预测

多维时序 | Matlab基于TCN-Transformer+LSTM双输入神经网络时间序列预测

目录

效果一览

基本介绍

1.Matlab基于TCN-Transformer+LSTM双输入神经网络时间序列预测(完整源码和数据)

2.输入多个特征,输出单个变量,考虑历史特征的影响,多变量时间序列预测;程序内注释详细,excel数据,直接替换数据就可以用。

3.程序语言为matlab,程序可出预测效果图,迭代优化图,相关分析图,运行环境matlab2020b及以上。评价指标包括:R2、RPD、MSE、RMSE、MAE、MAPE等。

4.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。

程序设计

  • 完整程序和数据下载私信博主回复Matlab基于TCN-Transformer+LSTM双输入神经网络时间序列预测
matlab 复制代码
%%  划分数据集
for i = 1: num_samples - kim - zim + 1
    res(i, :) = [reshape(result(i: i + kim - 1, :), 1, kim * or_dim), result(i + kim + zim - 1, :)];
end

%%  数据集分析
outdim = 1;                                  % 最后一列为输出
num_size = 0.7;                              % 训练集占数据集比例
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征维度

%%  划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);

P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);

%%  数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);

[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);

%%  转置以适应模型
p_train = p_train'; p_test = p_test';
t_train = t_train'; t_test = t_test';

%%  参数设置
fun = @getObjValue;    % 目标函数
dim = 2;               % 优化参数个数
lb  = [0.1, 0.1];      % 优化参数目标下限
ub  = [ 800,  800];    % 优化参数目标上限
pop = 20;              % 种群数量
Max_iteration = 30;    % 最大迭代次数   

%%  优化算法
[Best_score,Best_pos, curve] = SSA(pop, Max_iteration, lb, ub, dim, fun); 

%%  获取最优参数
bestc = Best_pos(1, 1);  
bestg = Best_pos(1, 2); 

参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/128163536?spm=1001.2014.3001.5502

[2] https://blog.csdn.net/kjm13182345320/article/details/128151206?spm=1001.2014.3001.5502

相关推荐
西猫雷婶3 小时前
神经网络|(十五)|霍普菲尔德神经网络-Storkey 训练
人工智能·深度学习·神经网络
Luis Li 的猫猫3 小时前
基于Matlab的人脸识别的二维PCA
开发语言·人工智能·算法·matlab
windwant5 小时前
深度学习之卷积神经网络(CNN)
人工智能·神经网络·cnn
lczdyx8 小时前
Transformer 代码剖析16 - BLEU分数(pytorch实现)
人工智能·pytorch·python·深度学习·transformer
巨鹿..16 小时前
自然语言处理:Transformer、BERT
自然语言处理·bert·transformer
羊小猪~~1 天前
深度学习基础--CNN经典网络之“DenseNet”简介,源码研究与复现(pytorch)
网络·人工智能·pytorch·深度学习·神经网络·机器学习·cnn
安逸sgr1 天前
图像生成-ICCV2019-SinGAN: Learning a Generative Model from a Single Natural Image
图像处理·人工智能·pytorch·深度学习·神经网络·生成对抗网络·计算机视觉
一只小菜鸡1 天前
实现Django和Transformers 构建智能客服大模型(模拟订单系统)
后端·python·django·transformer
Zhouqi_Hua1 天前
LLM论文笔记 19: On Limitations of the Transformer Architecture
论文阅读·人工智能·笔记·深度学习·语言模型·自然语言处理·transformer
liruiqiang051 天前
前馈神经网络 - 反向传播算法
人工智能·深度学习·神经网络·算法·机器学习