【Pytorch笔记】张量

torch.Tensor() 是 PyTorch 库中用于创建张量的一个函数。在 PyTorch 中,张量是多维数组,它们可以存储在 CPU 或 GPU 上,并且支持自动求导,这使得它们非常适合进行深度学习和科学计算。

张量可以在Python list形式下通过 torch.Tensor() 函数创建。

# 利用给定数据创建一个torch.Tensor对象.这是一个一维向量
V_data = [1., 2., 3.]
V = torch.Tensor(V_data)
print(V)
# 创建一个矩阵
M_data = [[1., 2., 3.], [4., 5., 6]]
M = torch.Tensor(M_data)
print(M)
# 创建2x2x2形式的三维张量.
T_data = [[[1., 2.], [3., 4.]],
 [[5., 6.], [7., 8.]]]
T = torch.Tensor(T_data)
print(T)

输出结果:

tensor([1., 2., 3.])
tensor([[1., 2., 3.],
[4., 5., 6.]])
tensor([[[1., 2.],
 [3., 4.]],
 [[5., 6.],
 [7., 8.]]])

也可以使用 torch.randn() 创建一个张量。这个张量拥有随机数据和需要指定的维度

x = torch.randn((3, 4, 5))
print(x)

输出结果:

tensor([[[-1.5256, -0.7502, -0.6540, -1.6095, -0.1002],
 [-0.6092, -0.9798, -1.6091, -0.7121, 0.3037],
 [-0.7773, -0.2515, -0.2223, 1.6871, 0.2284],
 [ 0.4676, -0.6970, -1.1608, 0.6995, 0.1991]],
 [[ 0.8657, 0.2444, -0.6629, 0.8073, 1.1017],
 [-0.1759, -2.2456, -1.4465, 0.0612, -0.6177],
[-0.7981, -0.1316, 1.8793, -0.0721, 0.1578],
 [-0.7735, 0.1991, 0.0457, 0.1530, -0.4757]],
 [[-0.1110, 0.2927, -0.1578, -0.0288, 0.4533],
 [ 1.1422, 0.2486, -1.7754, -0.0255, -1.0233],
 [-0.5962, -1.0055, 0.4285, 1.4761, -1.7869],
 [ 1.6103, -0.7040, -0.1853, -0.9962, -0.8313]]])

notes:

张量在深度学习中数据的主要表示方式。

深度学习模型的权重和偏置通常是张量,这些张量在训练过程中不断更新,以最小化损失函数。

图像数据通常被表示为三维张量,其中第一个维度是高度,第二个维度是宽度,第三个维度是颜色。

视频数据可能表示为四维张量,除了高度、宽度和颜色通道外,还增加了一个时间维度。

文本数据可以通过词嵌入表示为二维张量,其中每一行代表一个词或一个词序列的向量表示。

相关推荐
Debroon3 小时前
Med-R2:基于循证医学的检索推理框架:提升大语言模型医疗问答能力的新方法
人工智能
人机与认知实验室5 小时前
如何计算态势感知率?
大数据·人工智能
weixin_307779135 小时前
Apache Iceberg数据湖技术在海量实时数据处理、实时特征工程和模型训练的应用技术方案和具体实施步骤及代码
大数据·人工智能·语言模型·音视频
知识鱼丸7 小时前
自定义数据集 使用scikit-learn中svm的包实现svm分类
人工智能
说私域7 小时前
基于开源AI智能名片2 + 1链动模式S2B2C商城小程序视角下的个人IP人设构建研究
人工智能·小程序·开源
山海青风7 小时前
OpenAI 实战进阶教程 - 第七节: 与数据库集成 - 生成 SQL 查询与优化
数据库·人工智能·python·sql
Chatopera 研发团队8 小时前
计算图 Compute Graph 和自动求导 Autograd | PyTorch 深度学习实战
人工智能·pytorch·深度学习
纠结哥_Shrek8 小时前
pytorch实现半监督学习
人工智能·pytorch·学习
YuLiu123218 小时前
Vue3学习笔记-Vue开发前准备-1
vue.js·笔记·学习
白白糖8 小时前
深度学习 Pytorch 基础网络手动搭建与快速实现
人工智能·pytorch·深度学习