独家原创 | Matlab实现CNN-Transformer多变量时间序列预测

SCI一区级 | Matlab实现BO-Transformer-GRU多变量时间序列预测

目录

效果一览







基本介绍

1.Matlab实现CNN-Transformer多变量时间序列预测;

2.运行环境为Matlab2023b及以上;

3.data为数据集,输入多个特征,输出单个变量,考虑历史特征的影响,多变量时间序列预测,main.m为主程序,运行即可,所有文件放在一个文件夹;

4.命令窗口输出R2、MSE、RMSE、MAE、MAPE、MBE等多指标评价;

传统的 CNN 在图像处理任务中表现出色,能够有效地提取局部特征,并通过层级结构捕捉图像中的抽象特征。然而,CNN 在处理长期依赖关系时可能存在一些限制,这在自然语言处理等序列数据任务中尤为明显。相比之下,Transformer 模型由于自注意力机制能够有效地捕捉序列数据中的长期依赖关系,因此在自然语言处理任务中取得了重要的突破。然而,Transformer 模型对于图像处理任务来说可能过于复杂,因为图像数据通常具有高维度和局部结构,这导致在处理图像时 Transformer 的计算量较大。为了充分利用 CNN 在图像处理中的优势和 Transformer 在捕捉长期依赖关系中的优势,CNN-Transformer 模型将输入数据首先通过 CNN 进行局部特征提取。CNN 层可以有效地捕捉图像中的局部模式和特征。然后,提取的特征被输入到 Transformer 模型中,以便利用其自注意力机制来捕捉全局的长期依赖关系。

程序设计

  • 完整程序和数据下载私信博主回复Matlab实现CNN-Transformer多变量时间序列预测
clike 复制代码
%%  数据集分析
outdim = 1;                                  % 最后一列为输出
num_size = 0.7;                              % 训练集占数据集比例
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征维度

%%  划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);

P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);
%%  数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);

[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);

%%  数据平铺
%   将数据平铺成1维数据只是一种处理方式
%   也可以平铺成2维数据,以及3维数据,需要修改对应模型结构
%   但是应该始终和输入层数据结构保持一致
p_train =  double(reshape(p_train, f_, 1, 1, M));
p_test  =  double(reshape(p_test , f_, 1, 1, N));
t_train =  double(t_train)';
t_test  =  double(t_test )';


%%  构造网络结构
layers = [
 imageInputLayer([f_, 1, 1])     % 输入层 输入数据规模[f_, 1, 1]
 
 convolution2dLayer([3, 1], 16)  % 卷积核大小 3*1 生成16张特征图
 batchNormalizationLayer         % 批归一化层
 reluLayer                       % Relu激活层
 
 convolution2dLayer([3, 1], 32)  % 卷积核大小 3*1 生成32张特征图
 batchNormalizationLayer         % 批归一化层
 reluLayer                       % Relu激活层

 dropoutLayer(0.2)               % Dropout层
 fullyConnectedLayer(1)          % 全连接层
 regressionLayer];               % 回归层

参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/128163536?spm=1001.2014.3001.5502

[2] https://blog.csdn.net/kjm13182345320/article/details/128151206?spm=1001.2014.3001.5502

相关推荐
换个网名有点难1 小时前
大语言模型系列-Transformer
transformer
点云侠1 小时前
matlab 干涉图仿真
开发语言·人工智能·算法·计算机视觉·matlab
弈秋0012 小时前
llama-factory训练RLHF-PPO模型
人工智能·深度学习·语言模型·自然语言处理·chatgpt·transformer·llama
00000cj3 小时前
CoAtNet(NeurIPS 2023, Google)论文解读
人工智能·深度学习·计算机视觉·transformer·卷积
MatpyMaster3 小时前
图像卷积、步长、填充、特征图、多通道卷积、权重共享、感受野、池化
深度学习·神经网络·cnn
ChatGPT研究院3 小时前
Transformer教程之神经网络和深度学习基础
人工智能·深度学习·神经网络·机器学习·ai·chatgpt·transformer
开心星人5 小时前
【深度学习】Transformer
人工智能·深度学习·transformer
计算机科研狗@OUC6 小时前
【IJCAI2024】LeMeViT: Efficient Vision Transformer with Learnable Meta Tokens
人工智能·深度学习·transformer
seetimee6 小时前
RAG 案框架(Qanything、RAGFlow、FastGPT、智谱RAG)对比
transformer
JeffDingAI7 小时前
【昇思25天学习打卡营打卡指南-第十五天】Vision Transformer图像分类
学习·分类·transformer