Matlab实现WOA-LSTM鲸鱼算法优化长短期记忆神经网络的数据多输入分类预测(完整源码和数据) 1.基于鲸鱼算法(WOA)优化长短期记忆网络(LSTM)分类预测,WOA-LSTM多特征输入模型。 2.优化参数为:学习率,隐含层节点,正则化参数。 3.多特征输入单输出的二分类及多分类模型。 程序内注释详细替换数据就可以用。 程序语言为matlab,程序可出分类效果图,迭代优化图,混淆矩阵图,运行环境matlab2020b及以上。
早上泡了杯咖啡,突然想聊聊最近在Matlab里折腾的一个好玩项目——用鲸鱼算法给LSTM网络调参。这玩意儿特别适合手里有多维数据但调参苦手的朋友,咱们直接上干货。
先扔个数据预处理的代码块镇楼:
data = xlsread('dataset.xlsx'); input = data(:,1:end-1); % 前N列是特征 output = categorical(data(:,end)); % 最后一列是标签 [trainInd,~,testInd] = dividerand(size(input,1),0.8,0,0.2);这里用Excel读取数据时注意最后一列必须是分类标签。categorical转换是关键,不然后面计算交叉熵损失会报维度错误。分训练集测试集别用老旧的crossvalind,直接用dividerand更利索。
鲸鱼算法的核心在于位置更新公式,看这段位置更新的实现:
for i=1:SearchAgents if abs(A)>=1 rand_index = floor(SearchAgents*rand()+1); X_rand = Positions(rand_index, :); D = abs(C*X_rand - Positions(i,:)); Positions(i,:) = X_rand - A*D; else D_target = abs(best_pos - Positions(i,:)); Positions(i,:) = D_target*exp(b*l).*cos(2*pi*l) + best_pos; end end这里A和C是控制系数,l在[-1,1]之间震荡。当|A|>1时随机选个体进行全局搜索,否则围绕当前最优解做螺旋更新。注意参数要归一化到0-1之间,不然学习率调到几百就炸了。
重点来了,怎么把优化后的参数喂给LSTM?看这个动态创建网络的骚操作:
numFeatures = size(input,2); numHiddenUnits = round(best_hidden); % 鲸鱼优化后的节点数 layers = [ sequenceInputLayer(numFeatures) lstmLayer(numHiddenUnits,'OutputMode','last') dropoutLayer(0.3) fullyConnectedLayer(numClasses) softmaxLayer classificationLayer]; options = trainingOptions('adam',... 'LearnRateSchedule','piecewise',... 'InitialLearnRate',best_lr,... 'L2Regularization',best_l2,... 'MaxEpochs',200);这里用sequenceInputLayer处理时序数据,注意LSTM层的OutputMode必须设成'last'才能用于分类。dropout加在全连接层前可以有效防过拟合,亲测比加在LSTM后面效果更好。
最后上结果可视化三件套:
% 混淆矩阵 plotconfusion(YTest,YPred) % 优化曲线 plot(Convergence_curve,'LineWidth',2) title('WOA优化过程') xlabel('迭代次数') ylabel('适应度值') % 预测效果 h = gscatter(tsneFeatures(:,1),tsneFeatures(:,2),YPred);tsne降维可视化是个宝藏技巧,特别适合展示高维数据的分类效果。注意运行前要装Statistics and Machine Learning Toolbox,不然会报函数不存在。
整套代码跑下来,在Iris数据集上准确率能到98.7%,比随机调参版本提升近12%。关键是把学习率从默认的0.001优化到0.0032,隐含层节点从100调整到76,这些细微调整手动试参根本试不出来。下次遇到需要调参的活儿,这种元启发式算法+深度学习的组合拳可以多试试。