理解pytorch中的L2正则项

1 问题

  1. 正则化与偏差-方差分解之间的联系。

  2. Weight decay全值衰减。

2 方法

  1. regularization:减小方差的策略

    误差可分解为:偏差,方差与噪声之和。即误差=偏差+方差+噪声之和偏差度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力

    方差度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响

    噪声则表达了在当前任务上任何学习算法所能达到的期望泛化误差

    方差(Variance)是刻画数据扰动所造成的影响

    偏差是指刻画学习算法的本身拟合能力

    目标函数处理公式:( Objective Function ): Obj = Cost + Regularization Term

  2. 权值衰减代码复现模型搭建

  3. classMLP(nn.Module):

  4. def__init__(self, neural_num):

  5. super(MLP, self).init()

  6. self.linears=nn.Sequential(

  7. nn.Linear(1, neural_num),

  8. nn.ReLU(inplace=True),

  9. nn.Linear(neural_num, neural_num),

  10. nn.ReLU(inplace=True),

  11. nn.Linear(neural_num, neural_num),

  12. nn.ReLU(inplace=True),

  13. nn.Linear(neural_num, 1),

  14. )

  15. defforward(self, x):

  16. returnself.linears(x)

3 总结

针对问题一:对于pytorch模型中存在的过拟合与欠拟合做出明确原因与产生的数据来源的算法做出明确标注,解释清楚了误差的组成成分。

针对问题二:正则化策略的目的就是降低方差,减小过拟合的发生。weight_decay是在优化器中实现的,在代码中构建了两个优化器,一个优化器不带有正则化,一个优化器带有正则化。对与模型的优化有进一步提升。

相关推荐
人工智能培训12 小时前
深度学习赋能千行百业:核心应用场景与发展展望
大数据·人工智能·具身智能·ai培训·人工智能工程师
LJ979511112 小时前
当AI遇上媒体发布:企业传播的下一站
大数据·人工智能
大傻^12 小时前
LangChain4j 核心抽象:ChatMessage、UserMessage 与模型无关设计
人工智能·rag·langchain4j
智算菩萨12 小时前
基于多模态基础模型迈向通用人工智能:BriVL模型深度解析
论文阅读·人工智能·ai·语言模型·agi
小小怪75012 小时前
将Python Web应用部署到服务器(Docker + Nginx)
jvm·数据库·python
Sylvia33.12 小时前
体育数据API实战:用火星数据实现NBA赛事实时比分与状态同步
java·linux·开发语言·前端·python
小鹿软件办公12 小时前
OpenAI 补齐产品线:GPT-5.4 Mini 与 Nano 正式发布
人工智能·openai
qq_2337727112 小时前
元——人工智能
人工智能
大傻^12 小时前
SpringAI 2.0 可观测性体系:AI 操作追踪、指标监控与评估框架
人工智能·springai·指标监控·评估框架
GIS数据转换器12 小时前
小龙虾(OpenClaw) 在低空经济领域的应用
大数据·人工智能·无人机·智慧城市·制造