【动手学深度学习】课程笔记 05-07 线性代数、矩阵计算和自动求导

05 线性代数

1. 基础知识补充

向量相关

矩阵相关

简单来说,范数是用来衡量矩阵(张量)大小的值,范数的值有不同的规定。

2. 代码实现

仅记录一些我比较陌生的知识。

张量的克隆

python 复制代码
A = torch.arange(20, dtype=torch.float32).reshape(5, 4)
B = A.clone()  # 通过分配新内存,将A的一个副本分配给B
A, A + B

张量的降维

首先定义一个张量x,指定其元素的数据类型为32位的float:

python 复制代码
x = torch.arange(4, dtype=torch.float32)
x, x.sum()

接着调用求和函数,因为会对张量中的一些维度进行求和,求和后就相当于是降维了,这里的维度用轴axis来表示,0表示行,1表示列,下面是对行和列同时求和:

python 复制代码
A.sum(axis=[0, 1])  # 结果和A.sum()相同

axis = 0按照行,可以理解为把"行"给抹去只剩1行,也就是上下压扁。

axis = 1按照列,可以理解为把"列"给抹去只剩1列,也就是左右压扁。

点积

给定两个向量,它们的点积就是相同位置的元素乘积之和:

python 复制代码
y = torch.ones(4, dtype = torch.float32)
x, y, torch.dot(x, y)

矩阵-向量积、矩阵-矩阵积

矩阵和向量相乘:

python 复制代码
A.shape, x.shape, torch.mv(A, x)

矩阵和矩阵相乘:

python 复制代码
B = torch.ones(4, 3)
torch.mm(A, B)

范数

向量的范数表示一个向量有多大,这里的大小不涉及维度,指的是分量的大小。

常用的L2范数表示向量元素平方和的平方根,其实是将向量输入一个求平方和平方根的函数,就输出这个向量对应的L2范数:

python 复制代码
u = torch.tensor([3.0, -4.0])
torch.norm(u)

这也是唯一一个pytorch中定义的求范数函数,还有一个常用范数叫L1范数,其实就是元素的绝对值之和,它就没有特定的函数来计算了,因为比较好实现:

python 复制代码
torch.abs(u).sum()

前两个是对于向量来说的,矩阵的范数一般用的是Frobenius范数,它和L2范数一样,都是求平方和的平方根:

python 复制代码
torch.norm(torch.ones((4, 9)))
相关推荐
2501_926978333 小时前
“LLM的智能本质--AGI的可能路径--人类的意识本质”三者的统一基底(5.0理论解读)
人工智能·经验分享·笔记·深度学习·机器学习·ai写作·agi
bulingg3 小时前
L1与L2正则化的差异
线性代数·矩阵·概率论
لا معنى له4 小时前
WAM与AC-WM:具身智能时代的世界动作模型与动作条件世界模型
人工智能·笔记·学习
Wilber的技术分享5 小时前
【LeetCode高频手撕题 2】面试中常见的手撕算法题(小红书)
笔记·算法·leetcode·面试
愚昧之山绝望之谷开悟之坡6 小时前
合格境外投资者
笔记
剑穗挂着新流苏3127 小时前
203_深度学习的第一步:线性回归模型与 SGD 优化算法实战
人工智能·深度学习·机器学习
是枚小菜鸡儿吖7 小时前
卷不动了?带你拆解 2026 深度学习核心版图:CNN、Transformer 与扩散模型的实战进化
深度学习·cnn·transformer
靴子学长7 小时前
Decoder only 架构下 - KV cache 的理解
pytorch·深度学习·算法·大模型·kv
刘简爱学习8 小时前
弱监督互斥多类脑肿瘤图像分割的类间可分离性损失
人工智能·深度学习·计算机视觉
寒秋花开曾相惜8 小时前
(学习笔记)3.8 指针运算(3.8.3 嵌套的数组& 3.8.4 定长数组)
java·开发语言·笔记·学习·算法