基于PyTorch的深度学习2——逐元素操作,归并,比较,矩阵

以下为部分逐元素操作代码实例。

复制代码
import torch

t = torch.randn(1, 3)
t1 = torch.randn(3, 1)
t2 = torch.randn(1, 3)

#t+0.1*(t1/t2)
torch.addcdiv(t, 0.1, t1, t2)

#计算sigmoid
torch.sigmoid(t)

#将t限制在[0,1]之间
torch.clamp(t,0,1)

#t+2进行就地运算
t.add_(2)

归并操作一般涉及一个dim参数,指定沿哪个维进行归并。另一个参数是keepdim,说明输出结果中是否保留维度1,缺省情况是False,即不保留。以下为归并操作的部分代码

复制代码
import torch

#生成一个含6个数的向量
a=torch.linspace(0,10,6)

#使用view方法,把a变为2x3矩阵
a=a.view((2,3))

#沿y轴方向累加,即dim=0
b=a.sum(dim=0)   #b的形状为[3]

#沿y轴方向累加,即dim=0,并保留含1的维度
b=a.sum(dim=0,keepdim=True) #b的形状为[1,3]

机器学习和深度学习中存在大量的矩阵运算,常用的算法有两种:一种是逐元素乘法,另外一种是点积乘法

1)Torch的dot与Numpy的dot有点不同,Torch中的dot是对两个为1D张量进行点积运算,Numpy中的dot无此限制。

2)mm是对2D的矩阵进行点积,bmm对含batch的3D进行点积运算。

3)转置运算会导致存储空间不连续,需要调用contiguous方法转为连续。

torch.dottorch.mmtorch.bmm

1. 使用 torch.dot

torch.dot 计算两个一维张量(向量)的点积。

复制代码
import torch

a = torch.tensor([2, 3])
b = torch.tensor([3, 4])

result_dot = torch.dot(a, b)  # 运行结果为 2*3 + 3*4 = 6 + 12 = 18
print("Dot product result:", result_dot)

解释: 点积是对应元素相乘后的和,即 2×3+3×4=6+12=182×3+3×4=6+12=18。

2. 使用 torch.mm

torch.mm 执行两个二维张量(矩阵)之间的矩阵乘法。

复制代码
x = torch.randint(10, (2, 3))  # 创建一个形状为 (2, 3) 的随机整数张量
y = torch.randint(6, (3, 4))   # 创建一个形状为 (3, 4) 的随机整数张量

result_mm = torch.mm(x, y)  # 形状为 (2, 4) 的结果张量
print("Matrix multiplication result:\n", result_mm)

解释 : torch.mm 对两个二维张量执行标准的矩阵乘法。给定 XX 是 2×32×3 的矩阵,YY 是 3×43×4 的矩阵,则结果是一个 2×42×4 的矩阵。

示例输出

复制代码
x = tensor([[7, 8, 9],
            [5, 6, 7]])
y = tensor([[4, 3, 2, 1],
            [0, 1, 2, 3],
            [4, 3, 2, 1]])

tensor([[64, 54, 44, 34],
        [48, 40, 32, 24]])

3. 使用 torch.bmm

torch.bmm 执行批量矩阵乘法,适用于三维张量,其中每个二维子张量(切片)都进行矩阵乘法。

复制代码
x = torch.randint(10, (2, 2, 3))  # 创建一个形状为 (2, 2, 3) 的随机整数张量
y = torch.randint(6, (2, 3, 4))   # 创建一个形状为 (2, 3, 4) 的随机整数张量

result_bmm = torch.bmm(x, y)  # 形状为 (2, 2, 4) 的结果张量
print("Batch matrix multiplication result:\n", result_bmm)

解释 : torch.bmm 针对三维张量中的每一对二维子张量执行矩阵乘法。对于形状为 (batch_size, m, n)(batch_size, n, p) 的输入张量,输出将是形状为 (batch_size, m, p) 的张量。

示例输出

假设 xy 分别是:

复制代码
x = tensor([[[7, 8, 9],
             [5, 6, 7]],

            [[1, 2, 3],
             [4, 5, 6]]])

y = tensor([[[4, 3, 2, 1],
             [0, 1, 2, 3],
             [4, 3, 2, 1]],

            [[1, 2, 3, 4],
             [5, 6, 7, 8],
             [9, 10, 11, 12]]])

result_bmm 可能是:

复制代码
tensor([[[64, 54, 44, 34],
         [48, 40, 32, 24]],

        [[38, 44, 50, 56],
         [86, 98, 110, 122]]])

总结

  • torch.dot:用于计算两个一维张量的点积。
  • torch.mm:用于计算两个二维张量的标准矩阵乘法。
  • torch.bmm:用于计算两个三维张量中对应的二维子张量之间的批量矩阵乘法。
相关推荐
AI机器学习算法4 小时前
深度学习模型演进:6个里程碑式CNN架构
人工智能·深度学习·cnn·大模型·ai学习路线
Ztopcloud极拓云视角4 小时前
从 OpenRouter 数据看中美 AI 调用量反转:统计口径、模型路由与多云应对方案
人工智能·阿里云·大模型·token·中美ai
AI医影跨模态组学4 小时前
如何将深度学习MTSR与膀胱癌ITGB8/TGF-β/WNT机制建立关联,并进一步解释其与患者预后及肿瘤侵袭、免疫抑制的生物学联系
人工智能·深度学习·论文·医学影像
搬砖的前端4 小时前
AI编辑器开源主模型搭配本地模型辅助对标GPT5.2/GPT5.4/Claude4.6(前端开发专属)
人工智能·开源·claude·mcp·trae·qwen3.6·ops4.6
Python私教5 小时前
Hermes Agent 安全加固与生态扩展:2026-04-23 更新解析
人工智能
饼干哥哥5 小时前
Kimi K2.6 干成了Claude Design国产版,一句话生成电影级的动态品牌网站
人工智能
肖有米XTKF86465 小时前
带货者精品优选模式系统的平台解析
人工智能·信息可视化·团队开发·csdn开发云
天天进步20155 小时前
打破沙盒限制:OpenWork 如何通过权限模型实现安全的系统级调用?
人工智能·安全
xcbrand5 小时前
政府事业机构品牌策划公司找哪家
大数据·人工智能·python
骥龙5 小时前
第十篇:合规与未来展望——构建AI智能体安全标准
人工智能·安全