机器学习之单层神经网络的训练:增量规则(Delta Rule)

文章目录

  • 神经网络以权值的形式存储信息,根据给定的信息来修改权值的系统方法称为学习规则。由于训练是神经网络系统地存储信息的唯一途径,因此学习规则是神经网络研究中的一个重要组成部分

权重的调整

(Xj 为结点的输入,Yi为结点的输出,Wij为其之间的权重,ei为正确值di 与输出值Yi的误差)

  • 如果一个输入节点导致了输出节点的误差,则两个节点之间的权重按输入值xj和输出误差ei的比例进行调整

那么这个公式:

α=学习率(0< a <1)

  • 学习速率α决定了每次权重的多少。如果这个值过高,输出就会在解决方案中徘徊,无法收敛。相反,如果它太低,计算到达解的速度太慢

单层神经网络使用delta规则的训练过程

1.以足够的值初始化权重。

2.从{输入,正确输出}的训练数据中取"输入",输入神经网络。计算从正确的输出di到输入的输出yi的误差。

3.根据以下delta规则计算权重更新:

4。调整重量为:

5。对所有训练数据执行步骤2-4。

6.重复步骤2-5,直到误差达到可接受的公差水平。

  • 这些步骤几乎与"神经网络的监督学习"部分中的监督学习过程完全相同。唯一的区别是增加了步骤6。步骤6只是说明整个训练过程是重复的。一旦完成步骤5,就用每个数据点对模型进行训练。那么,为什么我们要使用所有相同的训练数据来训练它呢?这是因为delta规则在重复这个过程时搜索解决方案,而不是一次性解决它。3整个过程重复进行,因为用相同的数据再训练模型可能会改进模型。

训练过程

相关推荐
灰灰老师13 分钟前
数据分析系列--[11] RapidMiner,K-Means聚类分析(含数据集)
人工智能·算法·机器学习·数据挖掘·数据分析·kmeans·rapidminer
kyle~16 分钟前
机器学习--概览
人工智能·机器学习
追求源于热爱!41 分钟前
记4(可训练对象+自动求导机制+波士顿房价回归预测
图像处理·人工智能·算法·机器学习·回归
前端达人42 分钟前
「AI学习笔记」深度学习进化史:从神经网络到“黑箱技术”(三)
人工智能·笔记·深度学习·神经网络·学习
AIGC大时代1 小时前
对比DeepSeek、ChatGPT和Kimi的学术写作撰写引言能力
数据库·论文阅读·人工智能·chatgpt·数据分析·prompt
神经美学_茂森1 小时前
【方法论】ChatGPT与DeepSeek的联合应用,提升工作效率的新解决方案
人工智能·chatgpt
一水鉴天1 小时前
为AI聊天工具添加一个知识系统 之82 详细设计之23 符号逻辑 &正则表达式规则 之1
人工智能
深蓝海拓1 小时前
基于深度学习的视觉检测小项目(十六) 用户管理界面的组态
人工智能·python·深度学习·qt·pyqt
Icomi_1 小时前
【PyTorch】7.自动微分模块:开启神经网络 “进化之门” 的魔法钥匙
c语言·c++·人工智能·pytorch·python·机器学习·计算机视觉
沐雪架构师1 小时前
AI大模型开发原理篇-4:神经概率语言模型NPLM
人工智能·语言模型·自然语言处理