Matlab实现WOA-LSTM鲸鱼算法优化长短期记忆神经网络的数据多输入分类预测(完整源码和数据) 1.基于鲸鱼算法(WOA)优化长短期记忆网络(LSTM)分类预测,WOA-LSTM多特征输入模型。 2.优化参数为:学习率,隐含层节点,正则化参数。 3.多特征输入单输出的二分类及多分类模型。 程序内注释详细替换数据就可以用。 程序语言为matlab,程序可出分类效果图,迭代优化图,混淆矩阵图,运行环境matlab2020b及以上。

早上泡了杯咖啡,突然想聊聊最近在Matlab里折腾的一个好玩项目------用鲸鱼算法给LSTM网络调参。这玩意儿特别适合手里有多维数据但调参苦手的朋友,咱们直接上干货。

先扔个数据预处理的代码块镇楼:
matlab
data = xlsread('dataset.xlsx');
input = data(:,1:end-1); % 前N列是特征
output = categorical(data(:,end)); % 最后一列是标签
[trainInd,~,testInd] = dividerand(size(input,1),0.8,0,0.2);
这里用Excel读取数据时注意最后一列必须是分类标签。categorical转换是关键,不然后面计算交叉熵损失会报维度错误。分训练集测试集别用老旧的crossvalind,直接用dividerand更利索。

鲸鱼算法的核心在于位置更新公式,看这段位置更新的实现:
matlab
for i=1:SearchAgents
if abs(A)>=1
rand_index = floor(SearchAgents*rand()+1);
X_rand = Positions(rand_index, :);
D = abs(C*X_rand - Positions(i,:));
Positions(i,:) = X_rand - A*D;
else
D_target = abs(best_pos - Positions(i,:));
Positions(i,:) = D_target*exp(b*l).*cos(2*pi*l) + best_pos;
end
end
这里A和C是控制系数,l在[-1,1]之间震荡。当|A|>1时随机选个体进行全局搜索,否则围绕当前最优解做螺旋更新。注意参数要归一化到0-1之间,不然学习率调到几百就炸了。

重点来了,怎么把优化后的参数喂给LSTM?看这个动态创建网络的骚操作:
matlab
numFeatures = size(input,2);
numHiddenUnits = round(best_hidden); % 鲸鱼优化后的节点数
layers = [
sequenceInputLayer(numFeatures)
lstmLayer(numHiddenUnits,'OutputMode','last')
dropoutLayer(0.3)
fullyConnectedLayer(numClasses)
softmaxLayer
classificationLayer];
options = trainingOptions('adam',...
'LearnRateSchedule','piecewise',...
'InitialLearnRate',best_lr,...
'L2Regularization',best_l2,...
'MaxEpochs',200);
这里用sequenceInputLayer处理时序数据,注意LSTM层的OutputMode必须设成'last'才能用于分类。dropout加在全连接层前可以有效防过拟合,亲测比加在LSTM后面效果更好。

最后上结果可视化三件套:
matlab
% 混淆矩阵
plotconfusion(YTest,YPred)
% 优化曲线
plot(Convergence_curve,'LineWidth',2)
title('WOA优化过程')
xlabel('迭代次数')
ylabel('适应度值')
% 预测效果
h = gscatter(tsneFeatures(:,1),tsneFeatures(:,2),YPred);
tsne降维可视化是个宝藏技巧,特别适合展示高维数据的分类效果。注意运行前要装Statistics and Machine Learning Toolbox,不然会报函数不存在。
整套代码跑下来,在Iris数据集上准确率能到98.7%,比随机调参版本提升近12%。关键是把学习率从默认的0.001优化到0.0032,隐含层节点从100调整到76,这些细微调整手动试参根本试不出来。下次遇到需要调参的活儿,这种元启发式算法+深度学习的组合拳可以多试试。