技术栈

optimizer和loss.backward()相关函数

小宋加油啊2023-09-12 15:01

optimizer.zero_grad() # 梯度清零(一定要先进行梯度清零,这样tensor里面的grad就不会累加)

loss.backward()是用来求导的

optimizer.step()一般来说根据求来的导数进行梯度下降算法来更新参数

上面的顺序步骤不能变

上一篇:电工-PN结的工作原理
下一篇:导航url链接中获取参数
相关推荐
Kusunoki_D
2 小时前
PyTorch 环境配置
人工智能·pytorch·python
Virgil139
16 小时前
【TrOCR】模型预训练权重各个文件解读
人工智能·pytorch·计算机视觉·自然语言处理·ocr·transformer
赵英英俊
1 天前
Python day51
人工智能·pytorch·python
爱学习的小道长
1 天前
神经网络中 标量求导和向量求导
pytorch·深度学习·神经网络
伊织code
1 天前
PyTorch - Developer Notes
pytorch·微分·精度
钢铁男儿
1 天前
使用 TensorBoardX 实现 PyTorch 神经网络可视化:从入门到进阶
人工智能·pytorch·神经网络
伊织code
2 天前
PyTorch API 6
pytorch·api·ddp
范男
2 天前
基于Pytochvideo训练自己的的视频分类模型
人工智能·pytorch·python·深度学习·计算机视觉·3d·视频
伊织code
2 天前
PyTorch API 7
pytorch·api·张量·稀疏
聚客AI
2 天前
深度拆解AI大模型从训练框架、推理优化到市场趋势与基础设施挑战
图像处理·人工智能·pytorch·深度学习·机器学习·自然语言处理·transformer
热门推荐
01UV安装并设置国内源02KGG转MP3工具|非KGM文件|解密音频03Qwen3-Coder 快速上手教程 | Qwen Code + Claude Code04蜘蛛磁力 搜索引擎大全,如何使用蜘蛛磁力查找磁力链接05Claude Code VSCode集成开发指南:AI编程助手完整配置06DeepSeek更新!速览DeepSeek V3.1新特性07【2025.08.06最新版】Android Studio下载、安装及配置记录(自动下载sdk)082025最新国内服务器可用docker源仓库地址大全(2025年8月更新)09NVIDIA显卡驱动、CUDA、cuDNN 和 TensorRT 版本匹配指南10【踩坑笔记】50系显卡适配的 PyTorch 安装