【pytorch】张量求导

笔者看到了这篇文章,可以很好的解释张量的求导问题:

看到了上面这张图,可以说很好的表示了前向和反向的过程了。

补充几个细节

之前看李沐的d2l,一直不懂为什么矩阵计算时的一些奇奇怪怪的规定,比如为什么一个行向量对另一个行向量作微分的结果是每一行都对第二个向量的每个元素都进行偏微分,然后拼成一个矩阵。按照作者提到的,首先将y中的每个元素都对向量进行微分,然后再拼成一个矩阵。

另外一个就是:为什么两个向量微分之后的形状是两个向量的形状直接拼起来,从文中作者的解释也可以看出,每个元素都对第二个向量作微分,形状和第二个向量相同,而每个结果都会作为第一个向量的元素,因为最后一维往往就是元素,所以效果就相当于两个向量拼起来。

作者没更矩阵部分的内容,好可惜哦。

相关推荐
2501_907136823 分钟前
OfficeAI构建本地办公生态:WPS/Word双端联动,数据自由流转
人工智能·word·wps
飞哥数智坊8 分钟前
从零构建自己的MCP Server
人工智能
是Dream呀10 分钟前
ResNeXt: 通过聚合残差变换增强深度神经网络
人工智能·算法
DeepLink17 分钟前
Python小练习系列:学生信息排序(sorted + key函数)
python·求职
项目申报小狂人21 分钟前
CUDA详细安装及环境配置——环境配置指南 – CUDA+cuDNN+PyTorch 安装
人工智能·pytorch·python
学c真好玩31 分钟前
4.1-python操作wrod/pdf 文件
开发语言·python·pdf
东方佑32 分钟前
使用Python解析PPT文件并生成JSON结构详解
python·json·powerpoint
Niuguangshuo33 分钟前
Pytorch 张量操作
pytorch·张量
Auroral15635 分钟前
一文搞懂python实现邮件发送的全流程
python
suke35 分钟前
一文秒懂AI核心:Agent、RAG、Function Call与MCP全解析
人工智能·程序员