3、线性代数

1、矩阵转置 A[i,j]=A[j,i]

2、对称矩阵 :A转置=A

0,2,3

2 1 5

3,5,1

3、三维矩阵 求和 axis=0 两个矩阵相加 axis=1 两个向量相加 ,axis=2 向量内部相加

keepdims=True 求和后维度保持不变

4、cumsum累加求和

5、torch.mm() 或 torch.bmm()【矩阵乘法,前二维后三维,均不可广播】

torch.mm() 用于两个二维向量之间的矩阵乘法。如果 input1 是一个n×m张量,input2 是一个 m×p张量,将会输出一个 n×p 张量

>>> a = torch.ones(3,4)

>>> b = torch.ones(4,2)

>>> torch.mm(a, b) # torch.Size([3, 2])

tensor([[4., 4.],

4., 4.\], \[4., 4.\]\]) 而 torch.bmm() 是用于两个三维张量之间的批次矩阵乘法(其中第0维为批次大小)。由于神经网络训练一般采用mini-batch,经常输入的是三维带batch矩阵。如果 input1 是一个 b×n×m 张量,input2 是一个 b×m×p 张量,将会输出一个 b×n×p 张量 \>\>\> a = torch.ones(3,4,5) \>\>\> b = torch.ones(3,5,6) \>\>\> torch.bmm(a, b) # torch.Size(\[3, 4, 6\]) tensor(\[\[\[5., 5., 5., 5., 5., 5.\], \[5., 5., 5., 5., 5., 5.\], \[5., 5., 5., 5., 5., 5.\], \[5., 5., 5., 5., 5., 5.\]\], \[\[5., 5., 5., 5., 5., 5.\], \[5., 5., 5., 5., 5., 5.\], \[5., 5., 5., 5., 5., 5.\], \[5., 5., 5., 5., 5., 5.\]\], \[\[5., 5., 5., 5., 5., 5.\], \[5., 5., 5., 5., 5., 5.\], \[5., 5., 5., 5., 5., 5.\], \[5., 5., 5., 5., 5., 5.\]\]\]) 另外,这两个函数都无法广播 **6、torch.mv()【矩阵-向量乘法,不可广播】** torch.mv(input, vec) 只支持矩阵和向量之间的乘法。如果 input 为 n×m,vec向量的长度为m,那么输出为 n×1的向量。不支持广播机制 In\[1\]: vec = torch.arange(4) In\[2\]: mat = torch.arange(12).reshape(3,4) In\[3\]: torch.mv(mat, vec) Out\[1\]: tensor(\[14, 38, 62\]) torch.dot()【仅支持两个一维向量点积】 只能支持两个一维向量,两向量相乘相加得到一个标量 与 np.dot() 不同,np.dot() 既能向量点积,又能矩阵乘法 a = torch.tensor(\[2,3\]) b = torch.tensor(\[1,2\]) c = torch.dot(a,b) print('a:',a.shape) # a: torch.Size(\[2\]) print('b:',b.shape) # b: torch.Size(\[2\]) print('torch.dot:',c,c.shape) # torch.dot: tensor(8) torch.Size(\[\]) **7、@【等价于 torch.dot() + torch.mv() + torch.mm()】** mat1 @ mat2 若mat1和mat2都是一维向量,那么对应操作就是torch.dot() 若mat1是二维向量,mat2是一维向量,那么对应操作就是torch.mv() 若mat1和mat2都是二维向量,那么对应操作就是torch.mm() vec1 = torch.arange(4) vec2 = torch.tensor(\[4,3,2,1\]) mat1 = torch.arange(12).reshape(4,3) mat2 = torch.arange(12).reshape(3,4) print(vec1 @ vec2) # 两个一维向量 print(mat2 @ vec1) # 一个二维和一个一维 print(mat1 @ mat2) # 两个二维向量 Output: tensor(10) tensor(\[14, 38, 62\]) tensor(\[\[ 20, 23, 26, 29\], \[ 56, 68, 80, 92\], \[ 92, 113, 134, 155\], \[128, 158, 188, 218\]\]) torch.matmul() 【矩阵乘法,可高维,可广播】 torch.matmul() 与 @ 类似,但它不止局限于一维和二维,可以扩展到高维,且可以广播 如果输入的两个张量都是一维的,那么返回点积,得到一个数,对应的操作就是torch.dot() 如果输入的两个张量都是二维的,那么返回矩阵乘积,对应的操作就是torch.mm() 如果输入的第一个张量是二维的,第二个张量是一维的,matrix第二维需要与 vector维度相同,返回矩阵向量乘积,对应的操作就是torch.mv() 8、L2 元素平方求和开根号 L1 元素绝对值求和

相关推荐
万邦科技Lafite14 分钟前
利用淘宝开放API接口监控商品状态,掌握第一信息
大数据·python·电商开放平台·开放api接口·淘宝开放平台
Hy行者勇哥2 小时前
Python 与 VS Code 结合操作指南
开发语言·python
大力水手(Popeye)2 小时前
Pytorch——tensor
人工智能·pytorch·python
飞翔的佩奇6 小时前
【完整源码+数据集+部署教程】表盘指针检测系统源码和数据集:改进yolo11-CA-HSFPN
python·yolo·计算机视觉·数据集·yolo11·表盘指针检测
larance7 小时前
SQLAlchemy 的异步操作来批量保存对象列表
数据库·python
搏博7 小时前
基于Python3.10.6与jieba库的中文分词模型接口在Windows Server 2022上的实现与部署教程
windows·python·自然语言处理·flask·中文分词
lxmyzzs8 小时前
pyqt5无法显示opencv绘制文本和掩码信息
python·qt·opencv
萧鼎9 小时前
Python pyzmq 库详解:从入门到高性能分布式通信
开发语言·分布式·python
RaymondZhao3410 小时前
【全面推导】策略梯度算法:公式、偏差方差与进化
人工智能·深度学习·算法·机器学习·chatgpt
zhangfeng113310 小时前
DBSCAN算法详解和参数优化,基于密度的空间聚类算法,特别擅长处理不规则形状的聚类和噪声数据
算法·机器学习·聚类