bp神经网络中的重要函数解释

BP神经网络是反向传播神经网络
1.归一化 : 将数据映射到[0,1]或者[-1,1]缩小数据范围。防止数据淹没(一个数据很大一个很小,小的可能会忽略不计)
2. [Y,PS] = mapminmax(X,YMIN,YMAX)%x输入,y输出,YMIN,YMAX输出的范围,PS为结构体的信息。YMIN,YMAX默认是-1,1 ,正常设置为0,1

Y = mapminmax('apply',X,PS);%采用同X一样的归一化

X = mapminmax('reverse',Y,PS);%反归一化

eg:当x = [1,2,3,4];

经过归一化后是0-1之间的四个数,反归一化就是重新变成x=[1,2,3,4];
3.创建网络 net=newff(P,T,S,TF,BTF,BLF,PF,IPF,OPF,DDF)

参数:P 输入参数矩阵
T 目标参数矩阵
S N-1个隐含层数目(s(1)到s(N-1)),默认为空矩阵【】
TF 相关层的传递函数,默认隐含层为tansig函数,输出层为purlin函数。

tansig:正切S型传递函数 purelin:线性传递函数 logsig:对数S型传递函数
隐含层和输出层函数选择对BP神经网络预测精度有较大影响,一般隐含层节点转移函数选用tansig函数或者logsig函数,输出层节点转移函数选用tansig函数或者purelin函数。

BTF:BP神经网络学习训练函数,默认为taringlm函数,

BLF :权重学习函数,默认值为learngdm。traingd:最速下降BP算法。 traingdm:动量BP算法 trainda:学习率可变的最快下降BP算法。 traindx:学习率可变的动量BP算法。 trainrp : 弹性算法。

PF:性能函数,默认值为mse,可选择的还有sse,sae,mae,crossentropy 。mse:均方差。sse:和方差。mae: 平方损失。 crossentropy:交叉熵。

IPF/OPF/DDF均设置为默认值即可。
4.训练函数 :(训练所有神经网络)

net,tr,Y,E,Pf,Af\] = train(net,P,T,Pi,Ai) **net** :需要训练的神经网络 **p** :网络输入 **T** :网络期望输出 **Pi/Ai:初始输入/层延迟,默认为0 net** :训练好的神经网络 **tr:训练记录,包括训练的步数epoch和性能perf 对于没有输入延迟或层延迟的网络,Pi、Ai、Pf和Af参数是不需要的。** **仿真函数:\[Y,Pf,Af,E,perf\] = sim(net,P,Pi,Ai,T)** pf:最终输入延时 Af:最终层延迟 E:网络误差 Y:拟合或预测值 perf:网络性能 net:BP神经网络 P:拟合或预测值 T:拟合或预测期望 基本步骤:1。导入数据,分为训练输入数据和训练输出数据,测试输入数据和测试输出数据,各个层的节点数量, 2.训练样本归一化(包括训练输入和训练输出) 3.构建神经网络 4.网络参数配置 5.训练神经网络net 6.测试样本归一化 7.利用训练后的net进行预测测试集 8.得到预测结果 9.再进行反归一化得到原数值 10.计算误差 参考大佬视频:[添加链接描述](https://www.bilibili.com/video/BV1qM411b7wA/?spm_id_from=333.788&vd_source=f685608625f6c3b231216fe8caa01994)

相关推荐
Evand J33 分钟前
【三维轨迹目标定位,CKF+RTS,MATLAB程序】基于CKF与RTS平滑的三维非线性目标跟踪(距离+方位角+俯仰角)
开发语言·matlab·目标跟踪
yu85939584 小时前
神经网络遗传算法函数极值寻优(非线性函数极值)
人工智能·深度学习·神经网络
jr-create(•̀⌄•́)5 小时前
正则化和优化算法区别
pytorch·深度学习·神经网络·算法
kishu_iOS&AI7 小时前
深度学习 —— 神经网络(1)
人工智能·深度学习·神经网络
guygg8812 小时前
极化码(Polar Codes)的MATLAB实现
开发语言·数据结构·matlab
_寒潭雁影13 小时前
NeRF论文复现2 --- 原理及源码解析
神经网络·三维重建·nerf·神经辐射场·三维表达
机器学习之心13 小时前
电池SOH估计和RUL预测,基于BiLSTM神经网络的锂电池健康状态估计和剩余寿命预测,MATLAB代码
人工智能·神经网络·matlab·电池soh估计·rul预测·bilstm神经网络
ghie909015 小时前
MATLAB 解线性方程组的迭代法
开发语言·算法·matlab
昵称小白1 天前
从 ( y = wx + b ) 到神经网络:参数、loss、梯度到底怎么连起来(一)
人工智能·神经网络
郝学胜-神的一滴1 天前
神经网络参数初始化:从梯度失控到模型收敛的核心密码
人工智能·pytorch·深度学习·神经网络·机器学习·软件构建·软件设计