标量导数
这个比较简单,就是直接求导
亚导数
举了两个例子
梯度
- 下面是当 y 和 x 分别为向量和标量时求导的结果。一个为向量,一个为标量则结果为向量。两个都为向量结果为矩阵,两个都为标量结果为标量
- 当 y 为标量,x 为列向量时 ,结果为一个行向量,其计算结果相当于求偏导,具体看例子(吐槽一下沐神课上时真没听懂,不过一问gpt就懂了)
- 当 y 为向量,x 为标量时, 那么对于每一个 y 中的元素都对 x 求导即可,结果是一个列向量
- 当 x 和 y 都为向量时 ,那么我们把 y 中的每一个元素看作一个标量,然后对每一个 y 中的元素执行对向量 x 求导数,然后把结果的行向量都排在一起构成了矩阵
- 维度更多的情况,最终的维度其实就是把两者的维度加起来