pytorch loss及其梯度

目录

  • 1.loss的种类
    • [1.1 MSE](#1.1 MSE)
    • [1.2 MSE推导](#1.2 MSE推导)
    • [1.3 autograd.grad](#1.3 autograd.grad)
    • [1.4 loss.backward](#1.4 loss.backward)
  • [2. Softmax](#2. Softmax)
    • [2.1 softmax推导](#2.1 softmax推导)

1.loss的种类

常见两种一种是均方差,一种是交叉熵

1.1 MSE

1.2 MSE推导

1.3 autograd.grad

1.4 loss.backward


注意:autograd.grad直接返回梯度,而backward梯度保存再w.grad中

2. Softmax

softmax函数范围是[0,1]所有分类概率和等于1,softmax的特性是使概率大的更大,概率小的更小。

2.1 softmax推导

  • i=j
  • i/=j
  • 。总结
  • 应用
相关推荐
DevUI团队2 小时前
🚀 【Angular】MateChat V20.2.2版本发布,新增8+组件,欢迎体验~
前端·javascript·人工智能
DevUI团队2 小时前
🚀 MateChat V1.11.0 震撼发布!新增工具按钮栏组件及体验问题修复,欢迎体验~
前端·javascript·人工智能
乡村中医2 小时前
AIChat渲染md格式优化-Web Worker
人工智能
老迟聊架构2 小时前
说说Vibe Coding的适应范围
人工智能·程序员·架构
数据智能老司机2 小时前
PyTorch 深度学习——使用神经网络来拟合数据
pytorch·深度学习
数据智能老司机2 小时前
PyTorch 深度学习——用于图像的扩散模型
pytorch·深度学习
数据智能老司机2 小时前
PyTorch 深度学习——Transformer 是如何工作的
pytorch·深度学习
闲云一鹤3 小时前
本地部署 B 站 IndexTTS2 模型 - AI 文本生语音神器
前端·人工智能
前端双越老师4 小时前
Skills 是什么?如何用于 Agent 开发?
人工智能·node.js·agent
明月_清风5 小时前
Python 装饰器前传:如果不懂“闭包”,你只是在复刻代码
后端·python