PyTorch的基础概念和复杂模型的基本使用

文章目录

一、PyTorch基础概念

  1. 张量(Tensor)操作
    • 张量是PyTorch中的基本数据结构,类似于NumPy的数组,但支持GPU加速
    • 常见操作包括创建张量、张量运算、索引、切片等
python 复制代码
import torch

# 创建张量
x = torch.randn(3, 4)
y = torch.zeros(3, 4)

# 张量运算
z = x + y
  1. 自动求导(Autograd)
    • PyTorch的自动求导系统可以自动计算梯度
    • 通过requires_grad=True启用梯度计算
python 复制代码
# 启用自动求导
x = torch.randn(3, 4, requires_grad=True)

# 计算损失
y = x * 2
loss = y.sum()

# 反向传播
loss.backward()
  1. 计算图
    • PyTorch使用动态计算图(Define-by-Run)的方式
    • 每次前向传播都会构建一个新的计算图

二、复杂模型的学习使用

  1. 神经网络模块(torch.nn)
    • torch.nn提供了构建神经网络所需的各种组件
    • 主要包括各种层(如线性层、卷积层)、激活函数、损失函数等
python 复制代码
import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = nn.Linear(784, 128)
        self.fc2 = nn.Linear(128, 10)

    def forward(self, x):
        x = F.relu(self.fc1(x))
        x = self.fc2(x)
        return x
  1. 卷积神经网络(CNN)
    • 适用于图像处理任务
    • 包含卷积层、池化层等
python 复制代码
class CNN(nn.Module):
    def __init__(self):
        super(CNN, self).__init__()
        self.conv1 = nn.Conv2d(1, 32, kernel_size=3)
        self.conv2 = nn.Conv2d(32, 64, kernel_size=3)
        self.fc1 = nn.Linear(12*12*64, 128)
        self.fc2 = nn.Linear(128, 10)

    def forward(self, x):
        x = F.relu(self.conv1(x))
        x = F.max_pool2d(x, 2)
        x = F.relu(self.conv2(x))
        x = F.max_pool2d(x, 2)
        x = x.view(-1, 12*12*64)
        x = F.relu(self.fc1(x))
        x = self.fc2(x)
        return x
  1. 循环神经网络(RNN)
    • 适用于序列数据处理任务
    • 包括RNN、LSTM、GRU等变体
python 复制代码
class RNNModel(nn.Module):
    def __init__(self, input_size, hidden_size, num_layers, num_classes):
        super(RNNModel, self).__init__()
        self.lstm = nn.LSTM(input_size, hidden_size, num_layers, batch_first=True)
        self.fc = nn.Linear(hidden_size, num_classes)

    def forward(self, x):
        out, _ = self.lstm(x)
        out = self.fc(out[:, -1, :])
        return out
  1. 训练流程
    • 数据加载:使用DataLoaderDataset加载数据
    • 模型定义:定义神经网络结构
    • 损失函数:选择合适的损失函数(如交叉熵损失)
    • 优化器:选择优化器(如Adam)并传入模型参数
    • 训练循环:执行前向传播、计算损失、反向传播和参数更新
python 复制代码
from torch.utils.data import DataLoader, TensorDataset

# 创建数据集
x_train = torch.randn(1000, 784)
y_train = torch.randint(0, 10, (1000,))
dataset = TensorDataset(x_train, y_train)
dataloader = DataLoader(dataset, batch_size=32, shuffle=True)

# 创建模型、损失函数和优化器
model = Net()
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)

# 训练循环
for epoch in range(10):
    for inputs, targets in dataloader:
        outputs = model(inputs)
        loss = criterion(outputs, targets)
        
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
  1. 模型保存与加载
    • 使用torch.save()torch.load()保存和加载模型
python 复制代码
# 保存模型
torch.save(model.state_dict(), "model.pth")

# 加载模型
model = Net()
model.load_state_dict(torch.load("model.pth"))
相关推荐
穷儒公羊几秒前
从零开始:Python 自动化控制微信聊天实战教程
python
_一条咸鱼_1 分钟前
LangChain链的调试与故障排查深度解析(30)
人工智能·面试·langchain
大千AI助手3 分钟前
Self-Consistency:跨学科一致性的理论与AI推理的可靠性基石
人工智能·神经网络·算法·机器学习·大模型·llm·幻觉
音视频牛哥4 分钟前
面向低空经济的无人巡检与超低延迟控制技术解析 —— 基于SmartMediaKit的应用实践
人工智能·机器人·音视频开发
Codebee11 分钟前
OneCode+CloudWeGo 深化实践:智能发货单的 LLM 逻辑推理引擎优化
人工智能·低代码
PythonicCC22 分钟前
Python正则表达式
python·正则表达式
德育处主任32 分钟前
『OpenCV-Python』加载网络图片
后端·python·opencv
技术程序猿华锋1 小时前
随着GPT-5测试中泄露OpenAI 预计将很快发布 揭秘GPT-5冲击波:OpenAI如何颠覆AI战场,碾压谷歌和Claude?
人工智能·gpt
ai_xiaogui1 小时前
快速上手AI整合包!GPT-SoVITS-v2打包教程,解锁AIStarter应用市场潜力
人工智能·gpt-sovits-v2·ai整合包·解锁starter应用市场潜力·ai项目打包教程·快速部署ai应用·ai应用市场