【pytorch】张量求导

笔者看到了这篇文章,可以很好的解释张量的求导问题:

看到了上面这张图,可以说很好的表示了前向和反向的过程了。

补充几个细节

之前看李沐的d2l,一直不懂为什么矩阵计算时的一些奇奇怪怪的规定,比如为什么一个行向量对另一个行向量作微分的结果是每一行都对第二个向量的每个元素都进行偏微分,然后拼成一个矩阵。按照作者提到的,首先将y中的每个元素都对向量进行微分,然后再拼成一个矩阵。

另外一个就是:为什么两个向量微分之后的形状是两个向量的形状直接拼起来,从文中作者的解释也可以看出,每个元素都对第二个向量作微分,形状和第二个向量相同,而每个结果都会作为第一个向量的元素,因为最后一维往往就是元素,所以效果就相当于两个向量拼起来。

作者没更矩阵部分的内容,好可惜哦。

相关推荐
卷Java7 分钟前
Agent架构设计:规划器、工具、记忆、评估器如何协同工作
人工智能
z4424753269 分钟前
新买的电脑装哪个HTML函数工具最匹配_开箱即用教程【教程】
jvm·数据库·python
Claw开发者10 分钟前
Hermes 接 LiteLLM 缓存不生效踩坑记录
人工智能·agent
测试员周周12 分钟前
【踩坑系列3】飞书机器人集体“失联“?3 个 Gateway 进程让我差点崩溃!一个测试老兵的排查实录
java·python
齿轮13 分钟前
Agent 管理范式演进:从管一句话到管整个系统
人工智能·后端
AIGCmagic社区14 分钟前
AI多模态理论基础高频考点
人工智能
m0_7349497916 分钟前
如何结合计划任务实现自动定时备份任务配置_全自动化运维管理
jvm·数据库·python
珹洺21 分钟前
C++AI多模型聊天系统(三)AI多模型(豆包/Kimi/千问)接入与实现
开发语言·c++·人工智能
啷咯哩咯啷21 分钟前
纯本地运行的私人文档知识库
前端·人工智能·后端
FrontAI22 分钟前
深入浅出 LangGraph —— 第7章:持久化与检查点机制
人工智能·langchain·ai agent·langgraph