多维时序 | Matlab实现CNN-GRU-Mutilhead-Attention卷积门控循环单元融合多头注意力机制多变量时间序列预测

多维时序 | Matlab实现CNN-GRU-Mutilhead-Attention卷积门控循环单元融合多头注意力机制多变量时间序列预测

目录

    • [多维时序 | Matlab实现CNN-GRU-Mutilhead-Attention卷积门控循环单元融合多头注意力机制多变量时间序列预测](#多维时序 | Matlab实现CNN-GRU-Mutilhead-Attention卷积门控循环单元融合多头注意力机制多变量时间序列预测)

效果一览








基本介绍

Matlab实现CNN-GRU-Mutilhead-Attention卷积门控循环单元融合多头注意力机制多变量时间序列预测

1.data为数据集,格式为excel,4个输入特征,1个输出特征,考虑历史特征的影响,多变量时间序列预测;

2.main.m为主程序文件,运行即可;

3.命令窗口输出R2、MAE、MAPE、MSE和MBE,可在下载区获取数据和程序内容;

注意程序和数据放在一个文件夹,运行环境为Matlab2023a及以上。

CNN卷积核大小:卷积核大小决定了CNN网络的感受野,即每个卷积层可以捕获的特征的空间范围。选择不同大小的卷积核可以影响模型的特征提取能力。较小的卷积核可以捕获更细粒度的特征,而较大的卷积核可以捕获更宏观的特征。

GRU门控循环单元个数:GRU是一种适用于序列数据的循环神经网络,其单元个数决定了模型的复杂性和记忆能力。较多的GRU单元可以提高模型的学习能力,但可能导致过拟合。

多头自注意力层 (Multihead-Self-Attention):Multihead-Self-Attention多头注意力机制是一种用于模型关注输入序列中不同位置相关性的机制。它通过计算每个位置与其他位置之间的注意力权重,进而对输入序列进行加权求和。注意力能够帮助模型在处理序列数据时,对不同位置的信息进行适当的加权,从而更好地捕捉序列中的关键信息。在时序预测任务中,注意力机制可以用于对序列中不同时间步之间的相关性进行建模。

程序设计

  • 完整源码和数据获取方式私信回复Matlab实现CNN-GRU-Mutilhead-Attention卷积门控循环单元融合多头注意力机制多变量时间序列预测
clike 复制代码
%%  清空环境变量
warning off             % 关闭报警信息
close all               % 关闭开启的图窗
clear                   % 清空变量
clc                     % 清空命令行

%%  导入数据
res =xlsread('data.xlsx','sheet1','A2:H104');

%%  数据分析
num_size = 0.7;                              % 训练集占数据集比例

num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征维度

%%  划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);

P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);

f_ = size(P_train, 1);                  % 输入特征维度

%%  数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);

[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);

参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/129215161

[2] https://blog.csdn.net/kjm13182345320/article/details/128105718

相关推荐
机器学习之心4 天前
SCI一区 | Matlab实现DBO-TCN-LSTM-Attention多变量时间序列预测
attention·多变量时间序列预测·tcn-lstm·dbo-tcn-lstm
机器学习之心6 天前
独家原创 | Matlab实现CNN-Transformer多变量时间序列预测
matlab·cnn·transformer·多变量时间序列预测·cnn-transformer
简简单单做算法6 天前
基于PSO粒子群优化的CNN-GRU的时间序列回归预测matlab仿真
人工智能·深度学习·gru·cnn-gru·时间序列回归预测·pso-cnn-gru
长安er6 天前
自然语言处理课程论文:《Attention is all you need》复现与解读
人工智能·自然语言处理·nlp·attention·论文复现·self-attention
机器学习之心24 天前
区间预测 | Matlab实现QRCNN-BiGRU-Attention分位数回归卷积双向门控循环单元注意力机制时序区间预测
attention·分位数回归·卷积双向门控循环单元·注意力机制时序区间预测·qrcnn-bigru
365JHWZGo1 个月前
《论文阅读》具有人格自适应注意的个性化对话生成 AAAI 2023
论文阅读·attention·个性化·对话生成·adaptive·persona
机器学习之心1 个月前
区间预测 | Matlab实现QRCNN-BiLSTM-Attention分位数回归卷积双向长短期记忆网络注意力机制时序区间预测
matlab·attention·分位数回归·卷积双向长短期记忆网络·qrcnn-bilstm·注意力机制时序区间预测
机器学习之心1 个月前
SCI一区 | Matlab实现PSO-TCN-LSTM-Attention粒子群算法优化时间卷积长短期记忆神经网络融合注意力机制多变量时间序列预测
attention·多变量时间序列预测·时间卷积长短期记忆神经网络·粒子群算法优化·融合注意力机制·pso-tcn-lstm
简简单单做算法1 个月前
基于GA遗传优化的CNN-GRU的时间序列回归预测matlab仿真
深度学习·matlab·cnn-gru·ga遗传优化·时间序列回归预测·ga-cnn-gru
Luna_M2 个月前
大模型面试常考知识点2
人工智能·深度学习·大模型·attention