【学习心得】神经网络知识中的符号解释②

我在上篇文章中初步介绍了一些神经网络中的符号,只有统一符号及其对应的含义才能使我自己在后续的深度学习中有着一脉相承的体系。如果对我之前的文章感兴趣可以点击链接看看哦:

【学习心得】神经网络知识中的符号解释①http://t.csdnimg.cn/f6PeJ

一、神经网络简单模型

今天我以逻辑回归任务为例来介绍更多神经网络中的符号和他们对应的概念解释。先看一个超简单的神经网络模型:

这个模型对应了一个公式:

x是你输入的特征。w是权重,b是偏置,他们统称参数。我们可以将逻辑回归的模型再精细一点:

可见中间这个点,其实是有两个部分组成,第一个部分是线性部分,第二个部分是非线性部分。z是线性回归部分的输出,a是激活函数的输出。他们合在一起组成了逻辑回归的输出。可以写成如下公式:

公式中的是Sigmoid函数(激活函数的一种),L是损失函数(Loss Function)。好的介绍到这里我来个表格给大家复习一下:

|---------------------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------|
| 符号 | 解释 |
| | 特征值向量 |
| | 线性回归方程 |
| | Sigmoid激活函数 |
| | 损失函数 |
| | 权重向量 |
| | 偏置,偏置是一个标量在计算的时候被广播 |

二、两层神经网络

不废话,直接看图:

从图中可知,我们有三个输入特征他们被竖起来堆叠,这叫做神经网络的输入层。中间有两个虚线,其中处最后一个外,统称隐藏层。而最后一个虚线部分(这层只有一个节点)叫做输出层。

我们还用之前的公式和符号来表示这个神经网络模型,但稍有不同:

我们使用上角标中括号里面写数字的形式来表示第几层神经网络。这里要和之前的小括号里面写数字的形式区分开来它表示第i个训练样本。可见上面这个公式只写出了第1层神经网络的公式。接下来我们把第二层也写出来:

和上面的第1层比较类似,我就不赘述。上面我介绍了两层神经网络的正向传播,接下来要介绍反向传播的公式:

这里面要解释的符号,就是da它是每一层逻辑回归输出的梯度,dz它是每一层线性回归输出的梯度,dW是每一层权重的梯度,db是每一层偏置的梯度。

好啦,让我再用一个表格为大家总结一下:

|-------------------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------|
| 符号 | 解释 |
| | 上角标中括号里面写数字,代表第m层 |
| | 偏置w的行向量形式,即 |
| | 第0层的输出,其实就是输入层的特征值向量x |
| | 第层输出的梯度 |
| | 第层线性回归输出的梯度 |
| | 第层权重的梯度 |
| | 第层偏置的梯度 |

相关推荐
zzzzzz31013 分钟前
深度解析 AgentMemory:让 AI 编码助手拥有「永久记忆」的工程实践
人工智能
大模型推理17 分钟前
Nano-vLLM 源码解读 - 2. Sequence 状态机与请求生命周期
人工智能
cxr82820 分钟前
从多目标定义到闭环实验验证的系统工程
人工智能·智能体·逆向合成·材料设计合成
刀法如飞26 分钟前
Rust数组去重的20种实现方式,AI时代用不同思路解决问题
人工智能·算法·ai编程
code_pgf27 分钟前
OpenClaw的tools与skills详解
人工智能
user803952795254328 分钟前
Codex 新人上手——从需求到上线的完整工作流
人工智能
阿斯加德D39 分钟前
《霍格沃茨之遗》风灵月影修改器下载(已汉化)2026最新版
人工智能·测试工具·游戏·3d·游戏程序
HIT_Weston44 分钟前
75、【Agent】【OpenCode】用户对话提示词(question 工具)
人工智能·agent·opencode
weikecms1 小时前
外卖霸王餐API接口对接
大数据·人工智能·企业微信·微客云
zhangfeng11331 小时前
带有embeding 同时训练的Lora 权重合并,合并后的权重的模型,再训练数的Loss 突然增加
人工智能·lora·sft