基于野马算法优化的BP神经网络(预测应用) - 附代码

基于野马算法优化的BP神经网络(预测应用) - 附代码

文章目录

摘要:本文主要介绍如何用野马算法优化BP神经网络并应用于预测。

1.数据介绍

本案例数据一共2000组,其中1900组用于训练,100组用于测试。数据的输入为2维数据,预测的输出为1维数据

2.野马优化BP神经网络

2.1 BP神经网络参数设置

神经网络参数如下:

matlab 复制代码
%% 构造网络结构
%创建神经网络
inputnum = 2;     %inputnum  输入层节点数 2维特征
hiddennum = 10;     %hiddennum  隐含层节点数
outputnum = 1;     %outputnum  隐含层节点数

2.2 野马算法应用

野马算法原理请参考:https://blog.csdn.net/u011835903/article/details/122683703

野马算法的参数设置为:

matlab 复制代码
popsize = 20;%种群数量
Max_iteration = 20;%最大迭代次数
lb = -5;%权值阈值下边界
ub = 5;%权值阈值上边界
%  inputnum * hiddennum + hiddennum*outputnum 为阈值的个数
%  hiddennum + outputnum 为权值的个数
dim =  inputnum * hiddennum + hiddennum*outputnum + hiddennum + outputnum ;%  inputnum * hiddennum + hiddennum*outputnum维度

这里需要注意的是,神经网络的阈值数量计算方式如下:

本网络有2层:

第一层的阈值数量为:2*10 = 20; 即inputnum * hiddennum;

第一层的权值数量为:10;即hiddennum;

第二层的阈值数量为:10*1 = 10;即hiddenum * outputnum;

第二层权值数量为:1;即outputnum;

于是可知我们优化的维度为:inputnum * hiddennum + hiddennum*outputnum + hiddennum + outputnum = 41;

适应度函数值设定:

本文设置适应度函数如下:
f i t n e s s = a r g m i n ( m s e ( T r a i n D a t a E r r o r ) + m e s ( T e s t D a t a E r r o r ) ) fitness = argmin(mse(TrainDataError) + mes(TestDataError)) fitness=argmin(mse(TrainDataError)+mes(TestDataError))

其中TrainDataError,TestDataError分别为训练集和测试集的预测误差。mse为求取均方误差函数,适应度函数表明我们最终想得到的网络是在测试集和训练集上均可以得到较好结果的网络。

4.测试结果:

从野马算法的收敛曲线可以看到,整体误差是不断下降的,说明野马算法起到了优化的作用:



5.Matlab代码

相关推荐
Elastic 中国社区官方博客4 小时前
Elasticsearch:为 AI Agent builder 创建 skill plugin
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
肖有米XTKF86464 小时前
肖有米团队开发:青蓝送水系统模式制度商业解析
人工智能·团队开发·csdn开发云
Data_Journal4 小时前
2026年十大数据集网站
大数据·开发语言·数据库·人工智能·python
helloworddm4 小时前
Vulkan GPU图像处理之直方图均衡化:Kompute框架实战与性能分析
图像处理·人工智能
xingyuzhisuan4 小时前
适合微调Llama 3 70B模型的最低GPU配置推荐
运维·人工智能·算法·llama·gpu算力
珠海西格电力4 小时前
如何实现零碳园区管理系统“云-边-端”架构的协同
大数据·数据库·人工智能·架构·能源
初心未改HD4 小时前
机器学习之逻辑回归详解
人工智能·机器学习·逻辑回归
简简单单做算法4 小时前
基于GAN生成对抗网络模型的图像生成与虚拟场景构建系统matlab仿真
人工智能·神经网络·生成对抗网络·matlab·gan·虚拟场景构建
橙色阳光五月天4 小时前
使用 hyperframes 结合其他技术是否可以做出XX动物园游览动态图
人工智能·ai·ai作画·自动化·视频
俊哥V4 小时前
每日 AI 研究简报 · 2026-05-10
人工智能·ai