Pytorch编程基础

文章目录


前言

记录一些pytorch的基本使用方法。


一、导入库

python 复制代码
import torch
from torch.autograd import Variable # 自动求导变量
from torch import nn, optim # 网络层与优化器
from torch.utils.data import TensorDataset, DataLoader # 数据集迭代器

二、张量

1.创建张量

python 复制代码
从列表生成:a = torch.tensor([1,2,3], dtype=int)
全1全0:torch.ones(shape),torch.zeros(shape)
整数序列[m,n):torch.arrange(m,n)
随机数[0,1):torch.rand(3,4)
随机整数[m,n):torch.randint(m,n,shape)
正态分布:torch.randn()
相同形状随机数:b = torch.rand_like(a, dtype=float)

2.属性与方法

python 复制代码
维度:a.ndim;形状:a.shape,a.size()
数值:a[0].item()
类型转换:a.float(),a.type(torch.float32)

3.numpy转换

python 复制代码
array = np.array(tensor)
tensor = torch.from_numpy(array)
tensor = torch.tensor(array)

4.维度变换

python 复制代码
b = a.view(shape) 
b = a.reshape(shape) 

5.运算操作

python 复制代码
a+b,torch.add(a,b[,out=c]), a.add_(b)
a-b,a*b,a/b, a%b,a//b,a**m
平方根:torch.sqrt(a)
矩阵乘法:torch.matmul(a, b)
转置:a.T
求和:torch.sum(a)
均值:.mean(a),中位数:.median(a)
最值:torch.max/min/argmax/argmin(a)

三、自动求导

python 复制代码
x = torch.ones(shape, requires_grad=True)
y = x * x
y.backward()
grad = x.grad

四、模型保存

python 复制代码
1、保存模型:
torch.save(model.state_dict(), 'model.pth')
2、载入模型
model.load_state_dict(torch.load('model.pth'))

五、模型定义

1.层连接

python 复制代码
# 层
nn.Linear(in_features, out_features)
nn.Conv2d(in_channels, out_channels, kernel_size, stride, padding)
nn.MaxPool2d(kernel_size,stride)
nn.LSTM(input_size, hidden_size, num_layers, batch_first)
# 激活函数
self.tanh = nn.Tanh()
self.relu = nn.ReLU()
self.softmax = nn.Softmax(dim=1)
# 模型序列
self.fc = nn.Sequential(nn.Linear(784,128), nn.ReLU())
self.conv = nn.Sequential(nn.Conv2d(32,64,5,1,2), nn.ReLU(), nn.MaxPool2d(2,2))
self.lstm = nn.LSTM(input_size=28, hidden_size=64, num_layers=1, batch_first=True)

2.损失函数

python 复制代码
nn.MSELoss()
nn.CrossEntropyLoss()

3.优化器

python 复制代码
optim.SGD(model.parameters(), lr=0.1)
optim.Adam(model.parameters(), lr=0.001)

总结

pytorch的张量操作与numpy数组基本一致。模型保存只保存参数,加载时需要重新定义模型。采用继承类的形式来定义模型,在初始化中设置模型参数,在方法中进行前向传播,注意按层要求修改数据形状。

相关推荐
算家计算2 分钟前
Kimi发布新一代注意力架构!线性注意力实现75% KV缓存减少、6倍解码速度提升
人工智能·开源·资讯
2501_938773992 分钟前
文档搜索引擎搜索模块迭代:从基础检索到智能语义匹配升级
人工智能·算法·搜索引擎
@LetsTGBot搜索引擎机器人4 分钟前
打造属于你的 Telegram 中文版:汉化方案 + @letstgbot 搜索引擎整合教程
开发语言·python·搜索引擎·机器人·.net
文火冰糖的硅基工坊10 分钟前
[人工智能-大模型-117]:模型层 - 用通俗易懂的语言,阐述循环神经网络的结构
人工智能·rnn·深度学习
繁依Fanyi23 分钟前
【参赛心得】我的 HarmonyOS 开发入门与参赛之路
ide·人工智能·华为·word·harmonyos·aiide·codebuddyide
文心快码BaiduComate28 分钟前
AI时代下,程序员的发展与进阶
人工智能·程序员·前端框架
IT_陈寒1 小时前
React 18并发模式实战:3个优化技巧让你的应用性能提升50%
前端·人工智能·后端
IT_陈寒1 小时前
Vue 3性能优化实战:这5个Composition API技巧让你的应用快30%
前端·人工智能·后端
YF云飞1 小时前
拟人AI GoCap:用机器学习打造真实玩家体验
人工智能·机器学习