[动手学习深度学习]13.丢弃法 Dropout

权重衰退是常见处理过拟合的方法

丢弃法比权重衰退效果要好

动机

  • 一个好的模型 需要第输入数据的扰动具有鲁棒性
    • 使用有噪音的数据等价于Tikhonov正则
    • 丢弃法:在层之间加入噪音

(所以丢弃法其实是一个正则)

无偏差的加入噪音

  • 对x加入噪音得到x',我们希望
    E [ x ′ ] = x E[x'] = x E[x′]=x
  • 丢弃法对每个元素进行如下扰动

使用

通常将丢弃法作用在隐藏全连接层的输出上

对隐藏层的每一个神经元做dropout,使每一个都有p概率变为0

即去掉一些权重(每次可能去掉的不一样)

在训练中使用

推理中的丢弃法

  • 正则项只在训练中使用:他们影响模型参数的更新

  • 在推理过程中,dropout直接返回输入

    python 复制代码
    h=dropout(h)

    这样也能保证确定性的输出
    每次随机的采样一些子神经网络

总结

  • 丢弃法将一些输出项随机置0来控制模型复杂度
  • 常作用在多层感知机的隐藏层输出上
  • 丢弃概率使控制模型复杂度的超参数
相关推荐
layneyao4 分钟前
AI与自然语言处理(NLP):从BERT到GPT的演进
人工智能·自然语言处理·bert
Y31742930 分钟前
Python Day23 学习
python·学习
jndingxin1 小时前
OpenCV 的 CUDA 模块中用于将多个单通道的 GpuMat 图像合并成一个多通道的图像 函数cv::cuda::merge
人工智能·opencv·计算机视觉
格林威1 小时前
Baumer工业相机堡盟工业相机的工业视觉中为什么偏爱“黑白相机”
开发语言·c++·人工智能·数码相机·计算机视觉
song_ly0011 小时前
深入理解软件测试覆盖率:从概念到实践
笔记·学习·测试
DIY机器人工房2 小时前
[6-2] 定时器定时中断&定时器外部时钟 江协科技学习笔记(41个知识点)
笔记·stm32·单片机·学习·江协科技
灬0灬灬0灬2 小时前
深度学习---常用优化器
人工智能·深度学习
_Itachi__2 小时前
Model.eval() 与 torch.no_grad() PyTorch 中的区别与应用
人工智能·pytorch·python
海尔辛2 小时前
学习黑客5 分钟小白弄懂Windows Desktop GUI
windows·学习
白光白光2 小时前
大语言模型训练的两个阶段
人工智能·机器学习·语言模型