李宏毅深度学习03——神经网络训练不起来怎么办

视频链接

如果Optimization失败的时候,怎么把梯度下降做的更好?

只考虑这种情况,不考虑overfitting

局部最小值(local minima)和鞍点(saddle point)

为什么Optimization会失败?

可能是gradient为0,导致梯度下降不继续工作了,即critical point(临界点)为0,原因要么是local minima,要么是saddle point(像马鞍一样的面,所以被称为鞍点)

数学解释

泰勒展开

使用泰勒级数近似法来逼近某一个复杂函数的近似值

海塞矩阵

海塞矩阵

由于在临界点的时候,gradient为0,所以我们只需要考虑后面那一项的形状即可知道当前处于什么样的情况

假设v = θ - θ'

我们可以通过v的值来判断当前值θ'的类型

即如果所有的v都是正的,则L(θ) > L(θ'),则为local minima

如果所有v都是负的,则L(θ) < L(θ'),则为local maxima

如果v有正有负,则为saddle point

但是我们没办法算出所有的v,所以上面的方法是理论上可行

但是有个结论是我们可以通过海塞矩阵H的特征值来判断θ'的类型:

如果所有的特征值为正,则为local minima

所有特征值为负,则为local maxima

特征值有正有负,则为saddle point

如图:

例子

分别算出g和H,然后算出H的特征值,即可知道某个临界点是属于什么类型

特征值的计算需要学习一下

如果是saddle point,可以通过海塞矩阵H知道要更新的方向,具体:

通过找到一个能够使海塞矩阵所在项值变小的u,即可确定要更新的方向

其中u是特征向量,通过特征值找出来


然而,实际上由于计算海塞矩阵H太过复杂,一般都不适用这种方式来找到更新方向

saddle point和local minima哪个更常见?

结论:在低维度的情况下是local minima,可能在高维度上实际上是saddle point

批次(batch)和动量(Momentum)

batch批次

batch:批次,即把所有的数据分批次

epoch:遍历一次所有的batch

shuffle:遍历一次epoch,打乱一次顺序

为什么要用batch,使用小的batch Size还是大的batch Size

然而,考虑到并行运算,实际上遍历大的batch,未必就比小的时间长

虽然batch Size越大,所花的时间越少,看上去选择batch Size大的会比较合适。然而实验证明batch Size小的虽然noisy,但是有利于我们的训练,原因是因为大的batch Size可能会有Optimization的问题

batch Size 小的在测试数据上表现比大的好吗?

由于batch Size小的对应的Loss曲线更加曲折,而大的对应的曲线更加平缓;

一个直观的想法就是当训练数据和测试数据有一定偏差时,通过训练数据得到的曲线,越平缓,与测试数据的Loss就越小

结论

batch Size大和小都各自有各自的优点,所以这个就成了一个超参数,通过自己调整来得到更好的训练结果,许多文章都在探讨这个问题

Momentum动量

在实际的物理世界中,假设一个球从高处滑落,哪怕到达一个局部最低点,因为有动力的缘故,球也有可能翻越这个local minima继续往下走。

由这个想法引申出一个问题------能否将这个概念引入到梯度下降中呢?

只考虑gradient的方向:

gradient的方向加上movement的方向:

结论

实际上就是考虑了之前运动的方向,与当前算出的gradient做了个角度的修改,从而减少了local minima的概率

自动调整学习率(learning rate)

其实,临界点问题(critical point)并不一定是训练过程中最大的阻碍

同样一个函数如凸函数,当learning rate设的很大的时候,他会来回震荡导致Loss一直减小不了

当learning rate设的很小时,虽然不会在震荡,但是在平坦的地方下降太过缓慢,导致永远都走不到最小的Loss;所以learning rate必须根据不同的Gradient,调整不同的值

使用客制化的learning rate

Root mean square(均方根)

这个方法被用于Adagrad算法上

当gradient变化比较平缓的时候,算出来的learning rate会更大,当gradient变化比较着急时,算出来的learning rate会比较小

存在的问题

同个参数,同个方向,均方根算出来的值是固定不变的,但是我们希望的是能够动态调整

RMSProp

开始时比较平缓,所以算出来的learning rate很大,对应走的步伐就很大;然后当坡度变陡,则通过调整a,从而使步伐变小;当坡度变缓后,通过调整a,使得步伐又变大

常用的Optimization策略

Adam:RMSProp + Momentum

解决开头提出的问题:无法达到最小Loss

Learning Rate Scheduling

解决上述突然喷射的问题的一种方式叫Learning rate scheduling

常见的Learning rate scheduling有Learning Decay和Warm up

其中Learning Decay指的是随着时间的推移,逐渐减小n,使得Learning rate也逐渐减小,类似于踩刹车

另一种方式Warm up则是指通过修改n先提高Learning rate的速度,再减小,类似于先加速再减速

Warm up是一个黑科技,很多论文都有用到

总结

损失函数Loss对Optimization也有影响

假设将分类问题按照回归问题来做

即假设class对应着数字1,2,3,

有时候可行,有时候不可行。

比如假设根据身高体重预测是几年级,由于年级之间有联系,所以可行

但是如果这几个class之间没有联系,则不可行

one-hot vector

为了解决class之间没有联系的问题,我们可以使用one-hot vector

由原来的一个value推广至多个value

softmax(归一化)

上述是多个class的情况,如果是2个class,一般直接使用sigmoid,但是实际上这两个是等价的

Loss of classfication(分类的Loss)

分类中常用的Loss方法是Cross-entropy

通过下面的例子我们可以看出,MSE在可能会在较大Loss的情况下卡主,而Cross-entropy则不没有问题,也侧面说明了不同的Loss定义对于优化的影响也不同

相关推荐
李加号pluuuus2 小时前
【扩散模型】LCM LoRA:一个通用的Stable Diffusion加速模块
人工智能·stable diffusion
Alkali!3 小时前
2-5 softmax 回归的简洁实现
人工智能·数据挖掘·回归
哥廷根数学学派4 小时前
基于Maximin的异常检测方法(MATLAB)
开发语言·人工智能·深度学习·机器学习
xrgs_shz4 小时前
人工智能、机器学习、神经网络、深度学习和卷积神经网络的概念和关系
人工智能·深度学习·神经网络·机器学习·卷积神经网络
zzyincsdn5 小时前
从FasterTransformer源码解读开始了解大模型(2.1)代码通读03
人工智能·llm·fastertransform
dc爱傲雪和技术6 小时前
相机参数与图像处理技术解析
图像处理·人工智能·数码相机
QQ21696368816 小时前
Hi6602 恒压恒流SSR电源方案
人工智能·硬件架构·硬件工程·信息与通信·智能硬件
wodertianna6 小时前
机器学习原理之 -- 神经网络:由来及原理详解
人工智能·神经网络·机器学习
续亮~7 小时前
9、程序化创意
前端·javascript·人工智能
muren7 小时前
昇思MindSpore学习笔记2-01 LLM原理和实践 --基于 MindSpore 实现 BERT 对话情绪识别
笔记·深度学习·学习