PyTorch基础2

目录

1.Tensor常见操作

1.1获取元素值

1.2元素值运算

1.2.1算术运算符

1.2.2数学运算

1.2.3三角函数

1.2.4统计学函数

1.3阿达玛积

1.4Tensor相乘

1.5索引操作

1.5.1简单索引

1.5.2列表索引

1.5.3布尔索引

1.5.4索引赋值

1.6张量拼接

[1.6.1 torch.cat()](#1.6.1 torch.cat())

[1.6.2 torch.stack()](#1.6.2 torch.stack())

1.7形状操作

[1.7.1 reshape()](#1.7.1 reshape())

[1.7.2 view()](#1.7.2 view())

[1.7.3 transpose()](#1.7.3 transpose())

[1.7.4 permute()](#1.7.4 permute())

[1.7.5 flatten()](#1.7.5 flatten())

[1.7.6 queeze()](#1.7.6 queeze())

[1.7.7 unqueeze()](#1.7.7 unqueeze())

1.8张量分割

[1.8.1 chunk()](#1.8.1 chunk())

[1.8.2 split()](#1.8.2 split())

1.9广播机制

[9.1 广播机制规则](#9.1 广播机制规则)

[9.2 广播案例](#9.2 广播案例)

1.10保存和加载

1.11并行化


1.Tensor常见操作

1.1获取元素值

将单个元素tensor转换为Python数值

python 复制代码
import torch

torch.manual_seed(40)
tensor1 = torch.rand(size=(4,2,2))
print(tensor1)

# 取出元素
print(tensor1[2][1][0].item())

注意:

  • 如果有多个元素则报错;

1.2元素值运算

1.2.1算术运算符

python 复制代码
# 算术运算符: +
ten1 = torch.tensor([[ 100,  400,  900],[1600, 2500, 3600]])
print(ten1+1)

# 算术运算符: -
ten1 = torch.tensor([[ 100,  400,  900],[1600, 2500, 3600]])
print(ten1+-2)

# 算术运算符: *
ten1 = torch.tensor([[ 100,  400,  900],[1600, 2500, 3600]])
print(ten1 *2)

# 算术运算符: /
ten1 = torch.tensor([[ 100,  400,  900],[1600, 2500, 3600]])
print(ten1 /66)

# 算术运算符: //
ten1 = torch.tensor([[ 100,  400,  900],[1600, 2500, 3600]])
print(ten1 //66)

# 算术运算符: %
ten1 = torch.tensor([[ 100,  400,  900],[1600, 2500, 3600]])
print(ten1 %66)

1.2.2数学运算

(1)关于元素值运算的api,返回新的张量。

|---------|------------|
| floor() | 向下取整 |
| ceil() | 向上取整 |
| round() | 四舍五入 |
| trunc() | 裁剪,只保留整数部分 |
| frac() | 只保留小数部分 |
| fix() | 向零方向舍入 |

python 复制代码
# 不修改原始数据
tensor1 = torch.tensor([[1,2,3],[4,5,6]])
print(tensor1.add(1))
print(tensor1.sub(1))
print(tensor1.mul(10))
print(tensor1.div(10))
print(tensor1.pow(2))
print(tensor1)


ten = torch.tensor([[1.12, 2.54, -3.78], [4.45, -45.50, 6.54], [17.0, -8.110, 9.90]],device='cuda')

print(ten.floor())
print(ten.ceil())
print(ten.fix())
print(ten.round())
print(ten.trunc())
print(ten.frac())
print(ten.abs())

(2)关于元素值运算的api,带有_的方法则会修改原始数据。

python 复制代码
# 修改原始数据
tensor1 = torch.tensor([[1,2,3],[4,5,6]])
print(tensor1.add_(1))
print(tensor1.sub_(1))
print(tensor1.mul_(10))
print(tensor1.pow_(2))
tensor1 = torch.tensor([[1,2,3],[4,5,6]],dtype=float)
print(tensor1.div_(10))
print(tensor1)

1.2.3三角函数

  • torch.cos(input,out=None)

  • torch.cosh(input,out=None) # 双曲余弦函数

  • torch.sin(input,out=None)

  • torch.sinh(input,out=None) # 双曲正弦函数

  • torch.tan(input,out=None)

  • torch.tanh(input,out=None) # 双曲正切函数

python 复制代码
torch.set_printoptions(sci_mode=False)
ten = torch.tensor([[1.12, 2.54, -3.78], [4.45, -45.50, 6.54], [17.0, -8.110, 9.90]],device='cuda')

print(ten.sin())
print(ten.sinh())
print(ten.cos())
print(ten.cosh())
print(ten.tan())
print(ten.tanh())

1.2.4统计学函数

|----------------|--------------------|
| mean() | 张量的平均值 |
| median() | 张量的中位数 |
| mode() | 张量的众数 |
| sum() | 张量的元素之和 |
| std() | 张量的标准差 |
| var() | 张量的方差 |
| max() | 张量的最大值 |
| min() | 张量的最小值 |
| sort() | 对张量进行排序 |
| topk() | 返回张量中的前 k 个最大值或最小值 |
| histc() | 计算张量的直方图 |
| unique() | 返回去重后的张量。 |
| bincount() | 张量中每个元素的出现次数 |

python 复制代码
ten = torch.tensor([[1.12, 2.54, -3.78,-3.78], [-45.50, -45.50,-45.0, 6.54], [17.0,17.0, -8.110, 9.90]],device='cuda')

print(ten.mean())
print(ten.median())
print(ten.mode())

print(ten.sum())
print(ten.std())
print(ten.var())
print(ten.max())
print(ten.min())
print(ten.sort())
print(ten.sqrt())

print(ten.topk(k=3,dim=-1,sorted=True))
print(ten.histc())
# 返回去重后的结果
print(ten.unique())

ten = torch.tensor([100, 1, 2, 3, 4],device='cuda')
# 输入:第一个位置:表示0有多少个,第二个位置表示1有多少个
print(ten.bincount())

1.3阿达玛积

阿达玛积指的是矩阵相应位的元素相乘,可以使用 mul() 或者 * 来实现;

python 复制代码
ten1 = torch.tensor([[1, 2, 3], [4, 5, 6]])
ten2 = torch.tensor([[4, 5, 6],[1, 2, 3]])
print(ten1 * ten2)
print(ten1.mul(ten2))

1.4Tensor相乘

点积运算将两个向量映射为一个标量,是向量之间的基本操作。

点积运算要求如果第一个矩阵的shape是 (N, M),那么第二个矩阵 shape必是 (M, P),点积运算结果的shape为 (N, P)。

使用:@符号或者matmul()方法完成Tensor的乘法,mm(tensor1,tensor2)只限用于二维矩阵相乘。

python 复制代码
ten1 = torch.tensor([[1, 2, 3]])
ten2 = torch.tensor([[4], [5], [6]])

print(ten1 @ ten2)
print(ten1.matmul(ten2))
print(torch.mm(ten1,ten2))

print(ten2 @ ten1)
print(ten2.matmul(ten1))
print(torch.mm(ten2,ten1))

1.5索引操作

索引可以灵活地访问、修改张量中的特定元素或子集,从而简化代码并提高操作效率。

1.5.1简单索引

python 复制代码
ten = torch.randint(low=0,high=10,size=(3,3)).cuda()
print(ten)

# 行索引
print(ten[1])

# 列索引
print(ten[:,1:2])

# 固定位置索引
print(ten[0:3,1:2])

# 单个元素索引
print(ten[0][1])
print(ten[0,1])

1.5.2列表索引

使用list批量的制定要索引的元素位置须注意list的所在维度。

python 复制代码
ten = torch.randint(low=0,high=13,size=(3,4)).cuda()
print(ten)

# 列表索引
print(ten[[0,1],[2,3]])

# 行级别的索引
print(ten[[[2],[1]],[1,2,3]])

1.5.3布尔索引

(1)根据条件选择张量中的元素。

python 复制代码
ten = torch.randint(low=0,high=10,size=(4,4)).cuda()
mask = ten>5
print(ten)
print(mask)
print(ten[mask])

(2)行级别的条件索引。

python 复制代码
ten = torch.randint(low=0,high=17,size=(4,4)).cuda()
print(ten)

# 索引行(其列满足:....)
# 索引行(其第3列的元素大于10)
print(ten[ten[:,2]>10])
# 索引行(其第1列的元素大于2,且第2列的元素是偶数)
print(ten[(ten[:,1]%2==0) & (ten[:,0]>2)])

# 索引列(其行满足:....)
# 索引列(其第3行元素大于10)
print(ten[:,ten[2]>10])

1.5.4索引赋值

通过索引取地址,再进行批量赋值。

python 复制代码
ten = torch.eye(4)
print(ten)

ten[:,1:2]=10
print(ten)

1.6张量拼接

1.6.1 torch.cat()

在元素级别上操作

torch.cat([ ],dim)(concatenate 的缩写)用于沿现有维度拼接张量。

注意:要拼接的张量在除了指定拼接的维度之外的所有维度上的大小必须相同。

python 复制代码
ten1 = torch.tensor([[1,2,3],[4,5,6]])
ten2 = torch.tensor([[7,8,9],[77,88,99]])
print(torch.cat([ten1,ten2],dim=0))

ten1 = torch.tensor([[1,2,3],[4,5,6]])
ten2 = torch.tensor([[7,8,9],[77,88,99]])
print(torch.cat([ten1,ten2],dim=1))

1.6.2 torch.stack()

在张量级别上操作

torch.stack([ ],dim) 用于在新维度上堆叠张量。

注意:要堆叠的张量必须具有相同的形状。

技巧:堆叠指一人出一个交替添加,拼接指一人出完下个人在出完。

python 复制代码
ten1 = torch.tensor([[1,2,3],[4,5,6]])
ten2 = torch.tensor([[7,8,9],[77,88,99]])
print(torch.stack([ten1,ten2],dim=0))

ten1 = torch.tensor([[1,2,3],[4,5,6]])
ten2 = torch.tensor([[7,8,9],[77,88,99]])
print(torch.stack([ten1,ten2],dim=1))

1.7形状操作

在 PyTorch 中,调整张量的维度和结构,以适应不同的计算需求。

1.7.1 reshape()

可以用于将张量转换为不同的形状,但要确保转换后的形状与原始形状具有相同的元素数量。

python 复制代码
ten1 = torch.randint(low=0,high=13,size=(3,4,2)).cuda()
print(ten1)
ten2 = ten1.reshape(4,2,3)
print(ten2)

# -1表示:此位数字自动计算
ten1 = torch.randint(low=0,high=13,size=(3,4,2)).cuda()
print(ten1)
ten2 = ten1.reshape(4,2,-1)
print(ten2)
ten3 = ten1.reshape(4,-1)
print(ten3)

1.7.2 view()

(1)view进行形状变换的特征

  • 张量在内存中是连续的;

  • 返回的是原始张量视图,不重新分配内存,效率更高;

  • 如果张量在内存中不连续(比如张量进行了转置操作),view 将无法执行,并抛出错误。

(2)内存连续性

我们在进行变形或转置操作时,很容易造成内存的不连续性。

(3) view() 和 reshape() 比较

view:高效,但需要张量在内存中是连续的;

reshape:更灵活,但涉及内存复制,更消耗内存资源;

python 复制代码
ten1 = torch.randint(low=0,high=13,size=(3,4)).cuda()
print(ten1)
print(ten1.is_contiguous())

ten2 = ten1.t()
print(ten2)
print(ten2.is_contiguous())

# tensor连续,可用view()
ten3 = ten1.view(2,-1)
print(ten1)

# # tensor不连续,不可用view()
# ten4 = ten2.view(2,-1)
# print(ten4)

1.7.3 transpose()

transpose 用于交换张量的两个维度,返回的是原张量的视图。

python 复制代码
img_ten1 = torch.randint(low=0,high=256,size=(3,200,100)).cuda()
# print(ten1)

img_ten2 = img_ten1.transpose(dim0=2,dim1=0)
print(img_ten2.shape)
print(img_ten2)

1.7.4 permute()

permute 用于改变张量的所有维度顺序

python 复制代码
img_ten1 = torch.randint(low=0,high=256,size=(3,200,100)).cuda()

img_ten2 = img_ten1.permute(1,2,0)
print(img_ten2.shape)
print(img_ten2)

1.7.5 flatten()

flatten 用于元素不变,消除维度。

tensor.flatten(start_dim=0, end_dim=-1)

参数:

  • start_dim:从哪个维度开始展平。

  • end_dim :在哪个维度结束展平。默认值为 -1,表示展平到最后一个维度。

python 复制代码
ten = torch.randint(low=0,high=256,size=(4,2,2)).cuda()
print(ten)

# 展平成二维
ten2 = ten.flatten(start_dim=1,end_dim=2)
print(ten2)

# 展平成一维
ten3 = ten.flatten(start_dim=0,end_dim=-1)
print(ten3)

1.7.6 queeze()

用于移除所有大小为 1 的维度,或者移除指定位置且大小为 1 的维度。

python 复制代码
ten = torch.randint(low=0,high=256,size=(1,3,2,1)).cuda()
# print(ten)

ten1 = ten.squeeze(dim=0)
print(ten1.shape)

ten2 = ten.squeeze(-1)
print(ten2.shape)

ten3 = ten.squeeze(3).squeeze(0)
print(ten3.shape)

ten4 = ten.squeeze()
print(ten4.shape)

1.7.7 unqueeze()

用于在指定位置插入一个大小为 1 的新维度。

python 复制代码
ten = torch.randint(low=0,high=256,size=(3,4)).cuda()

ten1 = ten.unsqueeze(dim=0)
print(ten1.shape)

ten2 = ten.unsqueeze(-1)
print(ten2.shape)

ten3 = ten2.unsqueeze(0).unsqueeze(2)
print(ten3.shape)

1.8张量分割

可以按照指定的大小或者块数进行分割。

1.8.1 chunk()

按块数进行分割。

python 复制代码
ten = torch.randint(low=0,high=256,size=(3,4,5)).cuda()

# 分成chunks份
tensor_tup1=ten.chunk(chunks=2,dim=2)
print(tensor_tup1)

# 若chunks>dim 则按dim分割
print(ten.chunk(5))

1.8.2 split()

按指定的大小进行分割。

python 复制代码
ten = torch.randint(low=0,high=256,size=(3,4,5)).cuda()

# 分割的每一份的大小:split_size
tensor_tup1=ten.split(split_size=10,dim=2)
print(tensor_tup1)

# 若split_size>dim 则割的每一份的大小为:dim
print(ten.chunk(5))

1.9广播机制

广播机制支持了不同形状的张量进行计算的实现,而无需显式地调整张量的形状。广播机制通过自动扩展较小维度的张量,使其与较大维度的张量兼容,从而实现按元素计算。

9.1 广播机制规则

广播机制需要遵循以下规则:

  • 每个张量的维度至少为1

  • 满足右对齐

9.2 广播案例

1D和2D张量广播

python 复制代码
# 1D和2D张量广播
ten1 =torch.Tensor(([10],[20],[30])) 
ten2 =torch.Tensor(([[1,2,3],[4,5,6],[7,8,9]])) 

ten3 = ten1+ten2
print(ten3)

ten1 =torch.Tensor(([10],[20],[30])) # 维度(3,1)->广播(3,3)
ten4 =torch.Tensor(([1,2,3])) # 维度(1,3)->广播(3,3)

ten5= ten1+ten4
print(ten3)

2D 和 3D 张量广播

广播机制会根据需要对两个张量进行形状扩展,以确保它们的形状对齐,从而能够进行逐元素运算。

python 复制代码
# 2D 和 3D 张量广播
ten1 = torch.tensor([[1, 2, 3], [4, 5, 6]])
ten2 = torch.tensor([[[2, 3, 4]], [[5, 6, 7]]])
print(ten1.shape,ten2.shape)
print(ten1)
print(ten2)

ten3 =ten1+ten2
print()
print(ten3.shape)
print(ten3)

1.10保存和加载

Pytorch支持,张量数据可以保存下来并再次加载使用。

python 复制代码
# 1. 定义一个张量
ten = torch.tensor([[1.12, 2.54, -3.78], [-45.50, -45.50, 6.54], [17.0, -8.110, 9.90]],device='cuda')
# 2. 保存到文件中
torch.save(ten, "ten.pt")

# 1. 加载张量
x = torch.load("ten.pt")
# 2. 打印张量
print(ten,ten.device)

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
# 3. 加载到指定设备
ten = torch.load("ten.pt", map_location=device)
print(ten, ten.device)

1.11并行化

在 PyTorch 中,可以查看和设置用于 CPU 运算的线程数。

PyTorch 使用多线程来加速 CPU 运算,但有时可能需要调整线程数来优化性能。

(1)查看线程数

python 复制代码
# 查看当前 PyTorch 使用的线程数
num=torch.get_num_threads()
print(num)

(2)设置线程数

设置线程数时,确保应考虑 CPU 核心数和其他进程的资源需求,以获得最佳性能。

(3)注意事项

  • 线程数设置过高可能会导致线程相互竞争,反而降低性能;

  • 线程数设置过低可能会导致计算资源未得到充分利用;

  • 当使用 GPU 进行计算时,线程数设置对性能影响较小,因为 GPU 计算并不依赖于 CPU 线程数。

相关推荐
数据小爬虫@32 分钟前
利用Python爬虫获取淘宝店铺详情
开发语言·爬虫·python
编程修仙2 小时前
Collections工具类
linux·windows·python
芝麻团坚果2 小时前
对subprocess启动的子进程使用VSCode python debugger
linux·ide·python·subprocess·vscode debugger
z千鑫2 小时前
【人工智能】PyTorch、TensorFlow 和 Keras 全面解析与对比:深度学习框架的终极指南
人工智能·pytorch·深度学习·aigc·tensorflow·keras·codemoss
EterNity_TiMe_2 小时前
【论文复现】神经网络的公式推导与代码实现
人工智能·python·深度学习·神经网络·数据分析·特征分析
Stara05112 小时前
Git推送+拉去+uwsgi+Nginx服务器部署项目
git·python·mysql·nginx·gitee·github·uwsgi
hence..3 小时前
Vscode写markdown快速插入python代码
ide·vscode·python
DanielYQ3 小时前
LCR 001 两数相除
开发语言·python·算法
学不会lostfound3 小时前
三、计算机视觉_05MTCNN人脸检测
pytorch·深度学习·计算机视觉·mtcnn·p-net·r-net·o-net
vener_4 小时前
LuckySheet协同编辑后端示例(Django+Channel,Websocket通信)
javascript·后端·python·websocket·django·luckysheet