pytorch loss及其梯度

目录

  • 1.loss的种类
    • [1.1 MSE](#1.1 MSE)
    • [1.2 MSE推导](#1.2 MSE推导)
    • [1.3 autograd.grad](#1.3 autograd.grad)
    • [1.4 loss.backward](#1.4 loss.backward)
  • [2. Softmax](#2. Softmax)
    • [2.1 softmax推导](#2.1 softmax推导)

1.loss的种类

常见两种一种是均方差,一种是交叉熵

1.1 MSE

1.2 MSE推导

1.3 autograd.grad

1.4 loss.backward


注意:autograd.grad直接返回梯度,而backward梯度保存再w.grad中

2. Softmax

softmax函数范围是[0,1]所有分类概率和等于1,softmax的特性是使概率大的更大,概率小的更小。

2.1 softmax推导

  • i=j
  • i/=j
  • 。总结
  • 应用
相关推荐
世界唯一最大变量2 分钟前
用自创的算法快速解决拉姆奇数
python
leluckys3 分钟前
AI- 一种快速实现MCP服务的方法
开发语言·python
lingzhilab4 分钟前
零知ESP32-S3 部署AI小智 2.1,继电器和音量控制以及页面展示音量
人工智能
写代码的【黑咖啡】11 分钟前
探索 Python 中的 Vaex:高效处理大规模数据的新选择
开发语言·python
Lun3866buzha14 分钟前
自动扶梯与楼梯识别_yolo11-C3k2-SCcConv改进实现
python
两万五千个小时14 分钟前
AI Agent 框架演进
人工智能
li星野17 分钟前
OpenCV4X学习—核心模块Core
人工智能·opencv·学习
JavaLearnerZGQ18 分钟前
1、Java中的线程
java·开发语言·python
刘立军25 分钟前
如何选择FAISS的索引类型
人工智能·算法·架构
@zulnger26 分钟前
python 学习笔记(多线程和多进程)
笔记·python·学习