机器学习之单层神经网络的训练:增量规则(Delta Rule)

文章目录

  • 神经网络以权值的形式存储信息,根据给定的信息来修改权值的系统方法称为学习规则。由于训练是神经网络系统地存储信息的唯一途径,因此学习规则是神经网络研究中的一个重要组成部分

权重的调整

(Xj 为结点的输入,Yi为结点的输出,Wij为其之间的权重,ei为正确值di 与输出值Yi的误差)

  • 如果一个输入节点导致了输出节点的误差,则两个节点之间的权重按输入值xj和输出误差ei的比例进行调整

那么这个公式:

α=学习率(0< a <1)

  • 学习速率α决定了每次权重的多少。如果这个值过高,输出就会在解决方案中徘徊,无法收敛。相反,如果它太低,计算到达解的速度太慢

单层神经网络使用delta规则的训练过程

1.以足够的值初始化权重。

2.从{输入,正确输出}的训练数据中取"输入",输入神经网络。计算从正确的输出di到输入的输出yi的误差。

3.根据以下delta规则计算权重更新:

4。调整重量为:

5。对所有训练数据执行步骤2-4。

6.重复步骤2-5,直到误差达到可接受的公差水平。

  • 这些步骤几乎与"神经网络的监督学习"部分中的监督学习过程完全相同。唯一的区别是增加了步骤6。步骤6只是说明整个训练过程是重复的。一旦完成步骤5,就用每个数据点对模型进行训练。那么,为什么我们要使用所有相同的训练数据来训练它呢?这是因为delta规则在重复这个过程时搜索解决方案,而不是一次性解决它。3整个过程重复进行,因为用相同的数据再训练模型可能会改进模型。

训练过程

相关推荐
墨北小七5 分钟前
使用InspireFace进行智慧楼宇门禁人脸识别的训练微调
人工智能·深度学习·神经网络
HackTorjan6 分钟前
深度神经网络的反向传播与梯度优化原理
人工智能·spring boot·神经网络·机器学习·dnn
PersistJiao23 分钟前
Codex、Claude Code、gstack三者的关系
人工智能
一切皆是因缘际会1 小时前
AI数字分身的底层原理:破解意识、自我与人格复刻的核心难题
大数据·人工智能·ai·架构
翔云1234561 小时前
vLLM全解析:定义、用途与竞品对比
人工智能·ai·大模型
ASKED_20191 小时前
KDD Cup 2026 腾讯算法广告大赛赛题解读: UNI-REC (统一序列建模与特征交叉)
人工智能
fpcc1 小时前
AI和大模型——Fine-tuning
人工智能·深度学习
爱问的艾文1 小时前
八周带你手搓AI应用-Day4-赋予你的AI“记忆力”
人工智能
ACP广源盛139246256732 小时前
IX8024与科学大模型的碰撞@ACP#筑牢科研 AI 算力高速枢纽分享
运维·服务器·网络·数据库·人工智能·嵌入式硬件·电脑
向量引擎2 小时前
向量引擎接入 GPT Image 2 和 deepseek v4:一个 api key 把热门模型串起来,开发者终于不用深夜修接口了
人工智能·gpt·计算机视觉·aigc·api·ai编程·key