pytorch loss及其梯度

目录

  • 1.loss的种类
    • [1.1 MSE](#1.1 MSE)
    • [1.2 MSE推导](#1.2 MSE推导)
    • [1.3 autograd.grad](#1.3 autograd.grad)
    • [1.4 loss.backward](#1.4 loss.backward)
  • [2. Softmax](#2. Softmax)
    • [2.1 softmax推导](#2.1 softmax推导)

1.loss的种类

常见两种一种是均方差,一种是交叉熵

1.1 MSE

1.2 MSE推导

1.3 autograd.grad

1.4 loss.backward


注意:autograd.grad直接返回梯度,而backward梯度保存再w.grad中

2. Softmax

softmax函数范围是[0,1]所有分类概率和等于1,softmax的特性是使概率大的更大,概率小的更小。

2.1 softmax推导

  • i=j
  • i/=j
  • 。总结
  • 应用
相关推荐
树獭非懒7 小时前
AI大模型小白手册|Embedding 与向量数据库
后端·python·llm
KaneLogger7 小时前
【Agent】openclaw + opencode 打造助手 安装篇
人工智能·google·程序员
知识浅谈8 小时前
一步步带你把 OpenClaw 玩宕机(附云服务器避坑部署教程)
人工智能
冬奇Lab8 小时前
OpenClaw 深度解析(四):插件 SDK 与扩展开发机制
人工智能·开源·源码阅读
IT_陈寒9 小时前
SpringBoot实战:5个让你的API性能翻倍的隐藏技巧
前端·人工智能·后端
机器之心10 小时前
让AI自我进化?斯坦福华人博士答辩视频火了,庞若鸣参与评审
人工智能·openai
iceiceiceice10 小时前
iOS PDF阅读器段评实现:如何从 PDFSelection 精准还原一个自然段
前端·人工智能·ios
唐叔在学习10 小时前
就算没有服务器,我照样能够同步数据
后端·python·程序员
AI攻城狮11 小时前
RAG Chunking 为什么这么难?5 大挑战 + 最佳实践指南
人工智能·云原生·aigc