多输入多输出 | MATLAB实现CNN-LSTM-Attention卷积神经网络-长短期记忆网络结合SE注意力机制的多输入多输出预测

多输入多输出 | MATLAB实现CNN-LSTM-Attention卷积神经网络-长短期记忆网络结合SE注意力机制的多输入多输出预测

目录

    • [多输入多输出 | MATLAB实现CNN-LSTM-Attention卷积神经网络-长短期记忆网络结合SE注意力机制的多输入多输出预测](#多输入多输出 | MATLAB实现CNN-LSTM-Attention卷积神经网络-长短期记忆网络结合SE注意力机制的多输入多输出预测)

预测效果




基本介绍

CNN-LSTM-Attention多输入多输出回归预测 基于卷积神经网络-长短期记忆网络结合SE注意力机制的多输入多输出预测 注释清晰 Matlab语言

1.CNN-LSTM-Attention多输出回归预测,多输入多输出 ,LSTM也可以替换成BiLSTM、GRU, matlab需要2020b及以上版本 评价指标包括:R2、MAE、RMSE和MAPE等,效果如图所示,代码质量极高~

2.直接替换数据即可用,适合新手小白~

3.附赠案例数据,如图2所示,实际使用中3个、4个输出均可 直接运行main即可一键出图~

程序设计

  • 完整程序和数据下载方式私信博主回复:CNN-LSTM-Attention卷积神经网络-长短期记忆网络结合SE注意力机制的多输入多输出预测
clike 复制代码
miniBatchSize = 32;

options = trainingOptions("adam", ...
    MaxEpochs=3, ...
    MiniBatchSize=miniBatchSize, ...
    InitialLearnRate=0.005, ...
    LearnRateDropPeriod=2, ...
    LearnRateSchedule="piecewise", ...
    L2Regularization=5e-4, ...
    SequencePaddingDirection="left", ...
    Shuffle="every-epoch", ...
    ValidationFrequency=floor(numel(featuresTrain)/miniBatchSize), ...
    ValidationData={featuresValidation,labelsValidation}, ...
    Verbose=false, ...
    Plots="training-progress");
net = trainNetwork(featuresTrain,labelsTrain,layers,options);    
function features = extractFeatures(X,afe)

features = log(extract(afe,X) + eps);
features = permute(features, [2 3 1]);
features = {features};

end

往期精彩

MATLAB实现RBF径向基神经网络多输入多输出预测
MATLAB实现BP神经网络多输入多输出预测
MATLAB实现DNN神经网络多输入多输出预测

参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/116377961

[2] https://blog.csdn.net/kjm13182345320/article/details/127931217

[3] https://blog.csdn.net/kjm13182345320/article/details/127894261

相关推荐
Eshin_Ye12 天前
transformer学习笔记-自注意力机制(1)
笔记·学习·transformer·attention·注意力机制
YangJZ_ByteMaster13 天前
PETRv2: A Unified Framework for 3D Perception from Multi-Camera Images
人工智能·深度学习·3d·transformer·attention
机器学习之心20 天前
顶刊算法 | 鱼鹰算法OOA-BiTCN-BiGRU-Attention多输入单输出回归预测(Maltab)
人工智能·深度学习·回归·多输入单输出回归预测·attention·ooa-bitcn-bigru
LinKouun23 天前
论文笔记 SliceGPT: Compress Large Language Models By Deleting Rows And Columns
论文阅读·人工智能·语言模型·transformer·attention·模型压缩·注意力机制
机器学习之心1 个月前
多输入多输出 | Matlab实现TCN-GRU时间卷积神经网络结合门控循环单元多输入多输出预测
门控循环单元·多输入多输出预测·tcn-gru·时间卷积神经网络
胖哥真不错2 个月前
Python基于TensorFlow实现双向长短时记忆循环神经网络加注意力机制回归模型(BiLSTM-Attention回归算法)项目实战
python·tensorflow·attention·项目实战·bilstm·双向长短时记忆循环神经网络·注意力机制回归模型
胖哥真不错2 个月前
Python基于TensorFlow实现双向循环神经网络GRU加注意力机制分类模型(BiGRU-Attention分类算法)项目实战
python·tensorflow·attention·项目实战·bigru·双向循环神经网络gru·注意力机制分类模型
机器学习之心2 个月前
SCI一区级 | Matlab实现SSA-TCN-LSTM-Attention多变量时间序列预测
人工智能·matlab·lstm·attention·多变量时间序列预测·ssa-tcn-lstm
机器学习之心3 个月前
多输入多输出 | Matlab实现SSA-BP麻雀搜索算法优化BP神经网络多输入多输出预测
神经网络·matlab·多输入多输出预测·ssa-bp·麻雀搜索算法优化bp神经网络
CS_木成河3 个月前
【HuggingFace Transformers】OpenAIGPTModel的核心——Block源码解析
人工智能·gpt·深度学习·transformer·openai·attention·mlp