SCI一区级 | Matlab实现RIME-CNN-BiLSTM-Mutilhead-Attention多变量多步时序预测

SCI一区级 | Matlab实现RIME-CNN-BiLSTM-Mutilhead-Attention多变量多步时序预测

目录

预测效果



基本介绍

1.Matlab实现RIME-CNN-BiLSTM-Mutilhead-Attention多变量多步时序预测,开普勒算法优化学习率,卷积核大小,神经元个数,以最小MAPE为目标函数;

CNN卷积核大小:卷积核大小决定了CNN网络的感受野,即每个卷积层可以捕获的特征的空间范围。选择不同大小的卷积核可以影响模型的特征提取能力。较小的卷积核可以捕获更细粒度的特征,而较大的卷积核可以捕获更宏观的特征。

BiLSTM神经元个数:BiLSTM是一种适用于序列数据的循环神经网络,其神经元个数决定了模型的复杂性和记忆能力。较多的BiLSTM神经元可以提高模型的学习能力,但可能导致过拟合。

学习率:学习率是训练深度学习模型时的一个关键超参数,它控制每次参数更新的步长。学习率过大可能导致模型不稳定和发散,学习率过小可能导致训练过慢或陷入局部最小值。

多头自注意力层 (Multihead-Self-Attention):Multihead-Self-Attention多头注意力机制是一种用于模型关注输入序列中不同位置相关性的机制。它通过计算每个位置与其他位置之间的注意力权重,进而对输入序列进行加权求和。注意力能够帮助模型在处理序列数据时,对不同位置的信息进行适当的加权,从而更好地捕捉序列中的关键信息。在时序预测任务中,注意力机制可以用于对序列中不同时间步之间的相关性进行建模。

霜冰优化算法是2023年发表于SCI、中科院二区Top期刊《Neurocomputing》上的新优化算法,现如今还未有相关的优化算法应用文献。RIME主要对霜冰的形成过程进行模拟,将其巧妙地应用于算法搜索领域。

2.运行环境为Matlab2023a及以上,提供损失、RMSE迭代变化极坐标图;网络的特征可视化图;测试对比图;适应度曲线(若首轮精度最高,则适应度曲线为水平直线);

3.excel数据集(负荷数据集),输入多个特征,输出单个变量,考虑历史特征的影响,多变量多步时间序列预测(多步预测即预测下一天96个时间点),main.m为主程序,运行即可,所有文件放在一个文件夹;

4.命令窗口输出SSE、RMSE、MSE、MAE、MAPE、R2、r多指标评价,适用领域:负荷预测、风速预测、光伏功率预测、发电功率预测、碳价预测等多种应用。

程序设计

  • 完整源码和数据获取方式:私信博主回复Matlab实现RIME-CNN-BiLSTM-Mutilhead-Attention多变量多步时序预测
clike 复制代码
%% 清除内存、清除屏幕
clc
clear
%% 导入数据
data = xlsread('负荷数据.xlsx');
rng(0)
%%  数据分析
daynum=30;                                             %% 数据量较大,选取daynum天的数据
step=96;                                               %% 多步预测
data =data(end-step*daynum+1:end,:);                 
W_data  = data(:,end)';                                %% 实际值输出:每天24小时,每小时4个采样点
%%  数据归一化
[features, ~] = mapminmax(Features, 0, 1);
[w_data, ps_output]  = mapminmax(W_data, 0, 1);
%%  数据平铺为4-D
LP_Features =  double(reshape(features,fnum,step,1,daynum));    %% 特征数据格式
LP_WindData  = double(reshape(w_data,step,1,1,daynum));      %% 实际数据格式

%% 格式转换为cell
NumDays  = daynum;                                         %% 数据总天数为daynum天
for i=1:NumDays
    FeaturesData{1,i} = LP_Features(:,:,1,i);
end

for i=1:NumDays
    RealData{1,i} = LP_WindData(:,:,1,i);
end

%% 划分数据
XTrain = FeaturesData(:,1:daynum-2);                         %% 训练集输入为 1-(daynum-2)天的特征
YTrain = RealData(:,2:daynum-1);                             %% 训练集输出为 2-(daynum-1)天的实际值        
   Best_rime = zeros(1, dim);
    Best_rime_rate = inf; % 用于最大化问题,请将此值改为 -inf
    for i = 1:dim
        Rimepop(:, i) = lb(i) + rand(SearchAgents_no, 1) .* (ub(i) - lb(i));   % 初始种群
    end
    Lb = lb .* ones(1, dim); % 下边界
    Ub = ub .* ones(1, dim); % 上边界
    it = 1; % 迭代次数
    Convergence_curve = zeros(1, Max_iter);
    Rime_rates = zeros(1, SearchAgents_no); % 初始化适应度值
    newRime_rates = zeros(1, SearchAgents_no);
    W = 5; % 软霜冰参数,在论文第4.3.1节中有详细讨论
    % 计算初始位置的适应度值
    for i = 1:SearchAgents_no
        [Rime_rates(1, i),Value{i},Net{i},Info{i}] = fobj(Rimepop(i, :)); % 计算每个搜索体的适应度值
        % 进行贪婪选择
        if Rime_rates(1, i) < Best_rime_rate
            Best_rime_rate = Rime_rates(1, i);
            Best_rime = Rimepop(i, :);
            bestPred = Value{i};
            bestNet = Net{i};
            bestInfo = Info{i};
        end
    end
    % 主循环
    while it <= Max_iter
        RimeFactor = (rand - 0.5) * 2 * cos((pi * it / (Max_iter / 10))) * (1 - round(it * W / Max_iter) / W); % 公式(3),(4),(5)的参数
        E = (it / Max_iter)^0.5; % 公式(6)
        newRimepop = Rimepop; % 记录新的种群
        normalized_rime_rates = normr(Rime_rates); % 公式(7)的参数
        for i = 1:SearchAgents_no
            for j = 1:dim
                % 软霜冰搜索策略
                r1 = rand();
                if r1 < E
                    newRimepop(i, j) = Best_rime(1, j) + RimeFactor * ((Ub(j) - Lb(j)) * rand + Lb(j)); % 公式(3)
                end
                % 硬霜冰穿刺机制
                r2 = rand();
                if r2 < normalized_rime_rates(i)
                    newRimepop(i, j) = Best_rime(1, j); % 公式(7)
                end
            end
        end

参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/128577926?spm=1001.2014.3001.5501

[2] https://blog.csdn.net/kjm13182345320/article/details/128573597?spm=1001.2014.3001.5501

相关推荐
Eshin_Ye12 天前
transformer学习笔记-自注意力机制(1)
笔记·学习·transformer·attention·注意力机制
YangJZ_ByteMaster13 天前
PETRv2: A Unified Framework for 3D Perception from Multi-Camera Images
人工智能·深度学习·3d·transformer·attention
机器学习之心20 天前
顶刊算法 | 鱼鹰算法OOA-BiTCN-BiGRU-Attention多输入单输出回归预测(Maltab)
人工智能·深度学习·回归·多输入单输出回归预测·attention·ooa-bitcn-bigru
LinKouun23 天前
论文笔记 SliceGPT: Compress Large Language Models By Deleting Rows And Columns
论文阅读·人工智能·语言模型·transformer·attention·模型压缩·注意力机制
胖哥真不错2 个月前
Python基于TensorFlow实现双向长短时记忆循环神经网络加注意力机制回归模型(BiLSTM-Attention回归算法)项目实战
python·tensorflow·attention·项目实战·bilstm·双向长短时记忆循环神经网络·注意力机制回归模型
胖哥真不错2 个月前
Python基于TensorFlow实现双向循环神经网络GRU加注意力机制分类模型(BiGRU-Attention分类算法)项目实战
python·tensorflow·attention·项目实战·bigru·双向循环神经网络gru·注意力机制分类模型
机器学习之心2 个月前
SCI一区级 | Matlab实现SSA-TCN-LSTM-Attention多变量时间序列预测
人工智能·matlab·lstm·attention·多变量时间序列预测·ssa-tcn-lstm
CS_木成河3 个月前
【HuggingFace Transformers】OpenAIGPTModel的核心——Block源码解析
人工智能·gpt·深度学习·transformer·openai·attention·mlp
SpikeKing4 个月前
LLM - GPT(Decoder Only) 类模型的 KV Cache 公式与原理 教程
gpt·attention·公式·矩阵乘法·kv cache·decoderonly·键值缓存
逐梦苍穹4 个月前
【NLP】注意力机制:规则、作用、原理、实现方式
人工智能·自然语言处理·attention·注意力机制