tensor 的运算(加法、点乘、矩阵乘法)

文章目录

案例准备

python 复制代码
import torch

a = torch.tensor([[1,2,3],[4,5,6],[7,8,9]], dtype=torch.float)
b = torch.tensor([[10,10,10,],[10,10,10],[10,10,10,]], dtype=torch.float)

此时a,b为

加法
python 复制代码
a + 100
python 复制代码
a + b
a.add(b)
点乘
python 复制代码
a * b
矩阵乘法
python 复制代码
a @ b
a.matmul(b)
torch.mm(a,b)
注意

在pytorch中,如果一个运算方法后面加上下划线,代表就地改变原值,比如下面的a,这样做可以节省内存,但会直接改变a的值,请谨慎使用

python 复制代码
a.add_(b)
相关推荐
带娃的IT创业者10 分钟前
预测编码=Decoder 训练?Friston 自由能的 Transformer 实现
人工智能·深度学习·transformer·脑机接口·nct·硅基生命·意识编码
小雨中_41 分钟前
1.1 模型显存总体分析
人工智能·深度学习·机器学习·自然语言处理
Coding茶水间1 小时前
基于深度学习的鸡数量统计系统演示与介绍(YOLOv12/v11/v8/v5模型+Pyqt5界面+训练代码+数据集)
开发语言·人工智能·深度学习·yolo·目标检测·机器学习
ppppppatrick1 小时前
【深度学习基础篇04】从回归到分类:图像分类与卷积神经网络入门
人工智能·深度学习·分类
带娃的IT创业者1 小时前
STDP+Transformer:当局部可塑性遇见全局语义
人工智能·深度学习·神经网络·transformer·ai智能体·硅基生命·意识编程实现
得一录2 小时前
AI Agent的主流设计模式之工具调用模式
深度学习·aigc
小雨中_2 小时前
4.1 Megatron-LM:千卡级集群预训练的“硬核”框架
人工智能·python·深度学习·机器学习·llama
肾透侧视攻城狮2 小时前
【效率革命】《TensorFlow分布式训练:攻克内存瓶颈与通信延迟的实战方案》
人工智能·深度学习·tensorflow分布式训练·分布式策略·数据/模型并行·多机配置/自定义训练循环·内存不足/设备间通信瓶颈
高洁012 小时前
多模态大模型的统一表征与推理范式
人工智能·python·深度学习·机器学习·transformer
ppppppatrick2 小时前
【深度学习基础篇05】从AlexNet到ResNet:经典卷积神经网络的演进
人工智能·深度学习·cnn