【pytorch】张量求导

笔者看到了这篇文章,可以很好的解释张量的求导问题:

看到了上面这张图,可以说很好的表示了前向和反向的过程了。

补充几个细节

之前看李沐的d2l,一直不懂为什么矩阵计算时的一些奇奇怪怪的规定,比如为什么一个行向量对另一个行向量作微分的结果是每一行都对第二个向量的每个元素都进行偏微分,然后拼成一个矩阵。按照作者提到的,首先将y中的每个元素都对向量进行微分,然后再拼成一个矩阵。

另外一个就是:为什么两个向量微分之后的形状是两个向量的形状直接拼起来,从文中作者的解释也可以看出,每个元素都对第二个向量作微分,形状和第二个向量相同,而每个结果都会作为第一个向量的元素,因为最后一维往往就是元素,所以效果就相当于两个向量拼起来。

作者没更矩阵部分的内容,好可惜哦。

相关推荐
CM莫问5 分钟前
详解机器学习经典模型(原理及应用)——岭回归
人工智能·python·算法·机器学习·回归
七牛云行业应用6 分钟前
告别RLHF?DeepSeek过程奖励(PRM)架构解析与推理数据流设计
人工智能·强化学习·大模型架构·deepseek
SunnyRivers6 分钟前
Python打包指南:编写你的pyproject.toml
python·打包·toml
xcLeigh7 分钟前
AI的提示词专栏:Prompt 与传统机器学习特征工程的异同
人工智能·机器学习·ai·prompt·提示词
DuHz7 分钟前
论文阅读——Edge Impulse:面向微型机器学习的MLOps平台
论文阅读·人工智能·物联网·算法·机器学习·edge·边缘计算
诚丞成8 分钟前
机器学习——生成对抗网络(GANs):原理、进展与应用前景分析
人工智能·机器学习·生成对抗网络
盼小辉丶8 分钟前
图机器学习(7)——图神经网络 (Graph Neural Network, GNN)
人工智能·神经网络·图神经网络·图机器学习
码字的字节9 分钟前
机器学习中的可解释性:深入理解SHAP值及其应用
人工智能·shap
爱数学的程序猿12 分钟前
机器学习“捷径”:自动特征工程全面解析
人工智能·机器学习
一个处女座的程序猿13 分钟前
AI:新书预告—从机器学习避坑指南(分类/回归/聚类/可解释性)到大语言模型落地手记(RAG/Agent/MCP),一场耗时5+3年的技术沉淀—“代码可跑,经验可抄”—【一个处女座的程序猿】携两本AI
人工智能·机器学习·大语言模型