卷积神经网络基础(二)

停更好久的卷积神经网络基础知识终于开始更新了哈哈,今天主要介绍的是误差反向传播法

目录

一、计算图

[1.1 用计算图求解](#1.1 用计算图求解)

[1.2 局部计算](#1.2 局部计算)

[1.3 为什么采用计算图](#1.3 为什么采用计算图)

二、链式法则

[2.1 计算图的反向传播](#2.1 计算图的反向传播)

[2.2 链式法则](#2.2 链式法则)

[2.3 链式法则和计算图](#2.3 链式法则和计算图)

三、反向传播

[3.1 加法节点反向传播](#3.1 加法节点反向传播)

[3.2 乘法节点反向传播](#3.2 乘法节点反向传播)

[3.3 苹果的例子](#3.3 苹果的例子)


一、计算图

误差反向传播法是一种高效计算权重参数梯度的方法,可以通过基于数学式和基于图的两种方法学习,前者较为常见,在这里主要介绍基于图的方法。

这里说的指得是数据结构图,就是包含若干结点和边(连接结点的线)的图。

1.1 用计算图求解

首先我们看这样一个问题:

一个苹果100日元,我现在买了两个苹果,苹果的消费税是10%,那么我最终的支付金额是多少?

结果就是 100×2×(100%+10%)=220日元。

图中我们将乘数 ×2 和 ×1.1 标注在⭕内,我们也可以仅仅将符号 × 标注在其中,而将数值2和1.1单独作为一个变量标注在外,就像这样:

这样我们就把苹果的个数和消费税单独标注在外了。

下面,问题变得更复杂:我不仅买了两个100日元的苹果,我还买了三个150日元的橘子,消费税仍为10%,我最终支付的金额是多少?

用第二种标注方法表示上述的问题可以得到这样的图:

这里我们新增了一个 + 的符号用来合并苹果和橘子原本的金额,最后与消费税相乘得到最终金额。这样我们就得到了最终的计算图。计算方式为从左向右,计算结果也从左边向右边传递,类似电流流动。最终答案就是715日元。

综上,采用计算图解决问题的流程如下:

  1. 构建计算图
  2. 在计算图的基础上,从左向右计算

从左向右计算是正方向的传播,我们称为"正向传播 "(forward propagation),正向传播是从计算图出发点到结束点的传播。当然,也存在反向的传播(从右向左),这种传播称为"反向传播"。

1.2 局部计算

计算图的特征都是通过"局部计算"得到的,即与自己相关的某个领域内进行计算,而与全局的信息无关。

例如,我买了两个苹果和很多其他的东西,此时的计算图如下:

这里计算购买苹果所需的金额200与其他东西所需金额的4000如何计算得来没有任何关系,只关心苹果的个数和价格等。那么,计算图只用专注于局部计算即可,无论全局计算多么复杂,每个步骤仅需对对象节点完成局部计算。虽然局部计算很简单,但需要通过传递计算结果得到最终复杂的全局计算结果。

1.3 为什么采用计算图

那么,我们为什么采用计算图呢?计算图有什么优点呢?

首先,我们知道计算图只需考虑局部计算,这就让计算变得简单,从而简化问题。另外,计算图可以保存中间的计算结果,例如计算到两个苹果时金额为200日元,消费税之前的金额为4200日元等等。第三,计算图最大的优点就是可以通过反向传播高效计算导数。

我们重新考虑第一个问题:

我现在想知道,苹果价格的上涨会在多大程度上影响最终支付的金额,即求"支付金额关于苹果价格的导数"。设苹果价格为x,支付金额为L,相当于求。这个导数的意思就是苹果价格上涨时,支付金额会增加多少。

这个导数我们就可以通过计算图的反向传播来求出:

如图所示,我们用反向的神色箭头表示反向传播。从右向左传播的导数值分别为1------>1.1------>2.2,于是我们得知支付金额关于苹果价格的导数值为2.2,即苹果的价格每上涨1日元,支付的总金额就增加2.2日元。并且,我们在计算该导数的过程中,同样求出了支付金额关于消费税的导数以及支付金额关于苹果个数的导数,计算过程中的值都可以被共享。综上,计算图的优点就是通过正向和反向传播高效计算各个变量的导数值。

二、链式法则

我们经常接触到的计算都是从左至右的,而从右至左的反向传播可能会比较奇怪,其实这是基于链式法则的。

2.1 计算图的反向传播

这里我们看一个例子:

这里正向传播所表达的含义是一个关于x的函数y:,下面的反向箭头则表示反向传播。其传播顺序是:信号E乘以节点导数。这里的节点导数是指正向传播的导数,比如,则=2x,这样我们就可以高效求出导数的值了。

2.2 链式法则

首先我们介绍一下复合函数,也就是多个函数构成的函数。比如,是由下面两个式子组成的:

链式法则的定义如下:

例如:在上述的例子中z关于x的导数可以用z关于t的导数和t关于x的导数的乘积表示:

现在我们使用链式法则求解z关于x的导数:

这是基于公式的解析,最后通过链式法则得到z关于x的导数为2t*1=2(x+y)

2.3 链式法则和计算图

我们用计算图的形式去展示上述问题的求解过程:

这里用**2表示平方。这里反向传播最初的导数值是,也就是1,之前的数学式中被省略掉了。

最左边的反向传播结果中下面的结果成立,说明反向传播是基于链式法则的。

将具体数值带入到计算图中,得到下面的结果:

计算结果与我们计算的结果相同。

三、反向传播

3.1 加法节点反向传播

本节以Z=x+y为例进行展开。

计算图如下:

上游传过来的值中L设定为最终输出值,z=x+y位于计算图的某个地方。

可以看到,加法运算中反向传播将上游的值原封不动地输出到下游。

下面看一个具体的例子:

如右图所示,加法节点只将信号进行输入到下一节点,不做任何变化处理。

3.2 乘法节点反向传播

考虑例子:z=xy

则:

可见,乘法反向传播会将上游的值乘以正向传播的输入信号的翻转值然后传递给下游。

我们再看一个具体的例子:

假如有10×5=50,计算图表示如下:

因为反向传播是翻转值,所以各自按照1.3×5=6.5 和1.3×10=13得到最终导数值,加法的传播只需要传递即可,乘法传播还需要记录正向传播的输入信号值。

3.3 苹果的例子

最后我们再来看苹果的例子:

完整的计算图求解导数过程就是上面所展示的那样

最后,是一个练习:

感兴趣的可以把答案留在评论区哦!

相关推荐
武子康6 分钟前
大语言模型 09 - 从0开始训练GPT 0.25B参数量 补充知识之数据集 Pretrain SFT RLHF
人工智能·gpt·ai·语言模型·自然语言处理
davysiao18 分钟前
AG-UI 协议:重构多模态交互,开启智能应用新纪元
人工智能
沃洛德.辛肯21 分钟前
PyTorch 的 F.scaled_dot_product_attention 返回Nan
人工智能·pytorch·python
charles_vaez38 分钟前
开源模型应用落地-模型上下文协议(MCP)-Resources-资源的使用逻辑
深度学习·语言模型·自然语言处理·开源
sy_cora1 小时前
IEEE 列表会议第五届机器人、自动化与智能控制国际会议
运维·人工智能·机器人·自动化
吹风看太阳1 小时前
机器学习08-损失函数
人工智能·机器学习
m0_740154671 小时前
《k-means 散点图可视化》实验报告
人工智能·机器学习·kmeans
zhz52141 小时前
AI数字人融合VR全景:开启未来营销与交互新篇章
人工智能·ai·交互·vr·ai编程·智能体
智源研究院官方账号1 小时前
智源联合南开大学开源Chinese-LiPS中文多模态语音识别数据集
人工智能·语音识别
北温凉1 小时前
【学习笔记】机器学习(Machine Learning) | 第七章|神经网络(1)
笔记·机器学习