神经网络基础-正则化方法

文章目录

    • [1. 什么是正则化](#1. 什么是正则化)
    • [2. 正则化方法](#2. 正则化方法)
      • [2.1 Dropout正则化](#2.1 Dropout正则化)
      • [2.2 批量归一化(BN层)](#2.2 批量归一化(BN层))

学习目标:

  1. 知道正则化的作用
  2. 掌握随机失活 DropOut 策略
  3. 知道 BN 层的作用

1. 什么是正则化

  • 在设计机器学习算法时希望在新样本上的泛化能力强。许多机器学习算法都采用相关的策略来减小测试误差,这些策略被统称为正则化
  • 神经网络的强大的表示能力经常遇到过拟合,所以需要使用不同形式的正则化策略。
  • 目前在深度学习中使用较多的策略有范数惩罚DropOut特殊的网络层等,接下来我们对其进行详细的介绍。

2. 正则化方法

2.1 Dropout正则化

在练神经网络中模型参数较多,在数据量不足的情况下,很容易过拟合。Dropout(随机失活)是一个简单有效的正则化方法。

  • 在训练过程中,Dropout 的实现是让神经元以超参数 p 的概率停止工作或者激活被置为0,未被置为0的进行缩放,缩放比例为1/(1-p)。训练过程可以认为是对完整的神经网络的一些子集进行训练,每次基于输入数据只更新子网络的参数。
  • 在测试过程中,随机失活不起作用。

python实现:

python 复制代码
import torch
import torch.nn as nn


# Dropout 正则化
def test():
    # 初始化随机失活层
    dropout = nn.Dropout(p=0.4)
    # 初始化输入数据:表示某一层的 weight 值
    inputs = torch.randint(0,10,size=[1,4]).float()
    layer = nn.Linear(4,5)
    y = layer(inputs)
    print("未失活FC层的输出结果\n",y)
    y = dropout(y)
    print("失活后FC层的输出结果\n",y)

test()

输出结果:

tex 复制代码
未失活FC层的输出结果
 tensor([[-2.2610, -0.7930,  0.3200,  7.0264, -2.2781]],
       grad_fn=<AddmmBackward0>)
失活后FC层的输出结果
 tensor([[-0.0000, -1.3217,  0.0000,  0.0000, -3.7968]], grad_fn=<MulBackward0>)

上述代码将 Dropout 层的概率 p 设置为 0.4,此时经过 Dropout 层计算的张量中就出现了很多 0 , 未变为0的按照(1/(1-0.4))进行处理。

2.2 批量归一化(BN层)

先对数据标准化,再对数据重构(缩放+平移),如下所示:

  1. λ 和 β 是可学习的参数,它相当于对标准化后的值做了一个线性变换,λ 为系数,β 为偏置;
  2. eps 通常指为 1e-5,避免分母为 0;
  3. E(x) 表示变量的均值;
  4. Var(x) 表示变量的方差;

批量归一化层在计算机视觉领域使用较多,具体使用方法我们到后面在给大家进行介绍。

相关推荐
大模型任我行4 分钟前
腾讯:揭示评估幻觉并构建知识驱动新范式
人工智能·语言模型·自然语言处理·论文笔记
koo36424 分钟前
pytorch深度学习笔记23
pytorch·笔记·深度学习
LaughingZhu35 分钟前
Product Hunt 每日热榜 | 2026-03-21
人工智能·经验分享·深度学习·神经网络·产品运营
qzhqbb36 分钟前
差分隐私与大模型+差分隐私在相关领域应用的论文总结
人工智能·算法
一招定胜负39 分钟前
基于通义千问 API 的课堂话语智能分类分析工具实现
人工智能·分类·数据挖掘
阿_旭1 小时前
基于YOLO26深度学习的【桃子成熟度检测与分割系统】【python源码+Pyqt5界面+数据集+训练代码】图像分割、人工智能
人工智能·python·深度学习·桃子成熟度检测
CoderJia程序员甲1 小时前
GitHub 热榜项目 - 日榜(2026-03-22)
人工智能·ai·大模型·github·ai教程
剑穗挂着新流苏3121 小时前
109_神经网络的决策层:线性层(Linear Layer)与数据展平详解
人工智能·pytorch·深度学习
机器白学1 小时前
OpenClaw本地Docker安装部署+自定义配置国内大模型
人工智能
逄逄不是胖胖1 小时前
《动手学深度学习》-69BERT预训练实现
人工智能·深度学习