深度学习2-pyTorch学习-张量基本操作

张量的索引

如果A是一个矩阵,在matlab中我们取出来A矩阵的第m行n列的元素,可以用A(m,n)。取出来第i行的元素可以用A(i,:),取出来第i列的元素,可以用A(:,i)。而对于pytorch中的张量,它的索引略有不同:

复制代码
import torch
tensor = torch.tensor([[1,2,3],[4,5,6]],dtype = torch.float32)
print("原始张量:\n",tensor)

#1. ** 索引和切片操作**
print("获取第一行:",tensor[0])
print("获取第一行第一列的元素:",tensor[0,0])
print("获取第二列的所有元素:",tensor[:,1])
print("获取第一行的另外一种方法:",tensor[0,:]) #pytorch中tensor的索引是从0开始的

打印出来的:

复制代码
原始张量:
 tensor([[1., 2., 3.],
        [4., 5., 6.]])
获取第一行: tensor([1., 2., 3.])
获取第一行第一列的元素: tensor(1.)
获取第二列的所有元素: tensor([2., 5.])
获取第一行的另外一种方法: tensor([1., 2., 3.])

可以发现,pytorch中的张量的索引默认是从0开始的,例如,我们取矩阵的第1行,就是tensor.[0,:]当然也可以不写冒号,那就是tensor[0]。其次我们可以发现,pytorch中对张量索引的格式是tensor[],采用的是方括号,而不是matlab中的圆括号。

复制代码
print("张量的最大值:",tensor.max())
print("张量的最大值:",torch.max(tensor))
print("张量的最小值:",tensor.min())
print("张量的均值:",tensor.mean())
maxId = torch.argmax(tensor)
print("张量的最大值的索引",maxId)
minId = torch.argmin(tensor)
print("张量的最小值索引:",minId)

max_indices = torch.where(tensor == tensor.max())
print(f"最大值位置 (行, 列): {max_indices}")

张量形状变换

复制代码
#2. ** 形状变换操作 **
print("\n [形状变换]")
reshaped = tensor.view(3,2)  # 改变张量形状为3X2,即3行两列
print("改变形状后的张量:\n",reshaped)
flattenedTensor = tensor.flatten() # 将张量展平成一维
print("展平后的张量:\n",flattenedTensor)

tensor.view(M,N)可以将张量变为M行N列。注意张量形状改变前后的总元素数量必须一样,否则会报错,例如原来的张量是2X3,那么可以改变为3X2,但是不能变为3X4,例如以下程序:

复制代码
print("\n [形状变换]")
reshaped = tensor.view(3,4)  # 改变张量形状
print("改变形状后的张量:\n",reshaped)

输出如下:

复制代码
reshaped = tensor.view(3,4)  # 改变张量形状为3X2,即3行两列
RuntimeError: shape '[3, 4]' is invalid for input of size 6

张量的基本运算

加减乘求和,这些基本运算就是所有运算的基础,操作起来没什么说的

复制代码
#3. ** 张量的数学运算 **
print("张量的数学运算:\n")
tensorAdd = tensor + 10;
print("张量加10:\n",tensorAdd)
tensorMul = tensor * 2 # 张量乘法
print("张量乘2:\n",tensorMul)
tensorDot = tensor.sum()
print("张量元素求和:",tensorDot)

pytorch的张量,默认的保存格式都是float型,例如,上面我们原始的张量的输入是整数,但最终打印出来的数都带着个小数点,这就在提示我们,它将数据作为浮点型进行了保存。

矩阵的乘法

复制代码
#4. ** 与其他张量的操作 **
print("\n[与其他张量操作]")
tensor2 = torch.ones(3,2)
print("另一个张量:\n",tensor2)
tensorDot = torch.matmul(tensor,tensor2)
print("张量的矩阵乘法:\n",tensorDot)

这个没什么好所的,就是矩阵乘法罢了。

条件判断

复制代码
# 5.** 条件判断和筛选 **
print("\n [条件判断和筛选]")
mask = tensor > 3 # 判断一个布尔掩码
print("大于3的元素的布尔掩码:\n", mask)
filterTensor = tensor[tensor > 3] # 筛选出符合条件的元素
print("大于3的元素:\n",filterTensor)
相关推荐
隔壁大炮4 分钟前
Day07-RNN层(循环网络层)
人工智能·pytorch·python·rnn·深度学习·神经网络·计算机视觉
d111111111d17 分钟前
了解Modbus
网络·笔记·stm32·单片机·嵌入式硬件·学习
charlie11451419129 分钟前
通用GUI编程技术——图形渲染实战(三十八)——顶点缓冲与输入布局:GPU的第一个三角形
开发语言·c++·学习·图形渲染·win32
用AI赚一点1 小时前
AI落地不是造大模型:从概念到落地的核心差异
人工智能·深度学习·机器学习
我想我不够好。1 小时前
监控学习 4.29 1.5hour
学习
晓晓hh1 小时前
JavaWeb学习——JUnit和日志
学习·junit·单元测试
小超同学你好1 小时前
Transformer 30. MoCo:用「动量编码器 + 队列字典」把对比学习做成可扩展的“字典查找”
深度学习·学习·transformer
光影少年1 小时前
前端SSR和ssg区别
前端·vue.js·人工智能·学习·react.js
筱_智1 小时前
Docker学习-超详细-通俗易懂(从入门到精通)
学习·docker·容器
这张生成的图像能检测吗1 小时前
(论文速读)Sonnet:多变量时间序列预测的谱算子神经网络
人工智能·深度学习·时序预测·时序模型