多输入多输出 | MATLAB实现CNN-LSTM-Attention卷积神经网络-长短期记忆网络结合SE注意力机制的多输入多输出预测

多输入多输出 | MATLAB实现CNN-LSTM-Attention卷积神经网络-长短期记忆网络结合SE注意力机制的多输入多输出预测

目录

    • [多输入多输出 | MATLAB实现CNN-LSTM-Attention卷积神经网络-长短期记忆网络结合SE注意力机制的多输入多输出预测](#多输入多输出 | MATLAB实现CNN-LSTM-Attention卷积神经网络-长短期记忆网络结合SE注意力机制的多输入多输出预测)

预测效果




基本介绍

CNN-LSTM-Attention多输入多输出回归预测 基于卷积神经网络-长短期记忆网络结合SE注意力机制的多输入多输出预测 注释清晰 Matlab语言

1.CNN-LSTM-Attention多输出回归预测,多输入多输出 ,LSTM也可以替换成BiLSTM、GRU, matlab需要2020b及以上版本 评价指标包括:R2、MAE、RMSE和MAPE等,效果如图所示,代码质量极高~

2.直接替换数据即可用,适合新手小白~

3.附赠案例数据,如图2所示,实际使用中3个、4个输出均可 直接运行main即可一键出图~

程序设计

  • 完整程序和数据下载方式私信博主回复:CNN-LSTM-Attention卷积神经网络-长短期记忆网络结合SE注意力机制的多输入多输出预测
clike 复制代码
miniBatchSize = 32;

options = trainingOptions("adam", ...
    MaxEpochs=3, ...
    MiniBatchSize=miniBatchSize, ...
    InitialLearnRate=0.005, ...
    LearnRateDropPeriod=2, ...
    LearnRateSchedule="piecewise", ...
    L2Regularization=5e-4, ...
    SequencePaddingDirection="left", ...
    Shuffle="every-epoch", ...
    ValidationFrequency=floor(numel(featuresTrain)/miniBatchSize), ...
    ValidationData={featuresValidation,labelsValidation}, ...
    Verbose=false, ...
    Plots="training-progress");
net = trainNetwork(featuresTrain,labelsTrain,layers,options);    
function features = extractFeatures(X,afe)

features = log(extract(afe,X) + eps);
features = permute(features, [2 3 1]);
features = {features};

end

往期精彩

MATLAB实现RBF径向基神经网络多输入多输出预测
MATLAB实现BP神经网络多输入多输出预测
MATLAB实现DNN神经网络多输入多输出预测

参考资料

1\] https://blog.csdn.net/kjm13182345320/article/details/116377961 \[2\] https://blog.csdn.net/kjm13182345320/article/details/127931217 \[3\] https://blog.csdn.net/kjm13182345320/article/details/127894261

相关推荐
机器学习之心10 天前
分类预测 | Matlab实现BO-LSTM-Attention多特征分类预测
matlab·分类·lstm·attention·bo-lstm
zbdx不知名菜鸡12 天前
self Attention为何除以根号dk?(全新角度)
transformer·attention·概率论
爱听歌的周童鞋17 天前
Flash Attention原理讲解
attention·self-attention·flash attention
AINLPer20 天前
Attention又升级!Moonshot | 提出MoE注意力架构:MoBA,提升LLM长文本推理效率
attention
xidianjiapei0011 个月前
5分钟速览深度学习经典论文 —— attention is all you need
人工智能·深度学习·transformer·attention·论文解读
爱听歌的周童鞋1 个月前
DeepSeek MLA(Multi-Head Latent Attention)算法浅析
attention·gqa·deepseek·mla
机器学习之心2 个月前
Matlab实现POA-BP鹈鹕算法优化BP神经网络多输入多输出预测
matlab·多输入多输出预测·poa-bp·鹈鹕算法优化bp神经网络
开出南方的花2 个月前
DeepSeek模型架构及优化内容
人工智能·pytorch·深度学习·机器学习·架构·nlp·attention
SpikeKing2 个月前
LeetCode - Google 大模型校招10题 第1天 Attention 汇总 (3题)
leetcode·llm·attention·multihead·groupquery·kvcache
机器学习之心3 个月前
WOA-CNN-GRU-Attention、CNN-GRU-Attention、WOA-CNN-GRU、CNN-GRU四模型对比多变量时序预测
attention·cnn-gru·woa-cnn-gru·四模型对比多变量时序预测