《Python实战进阶》第33集:PyTorch 入门-动态计算图的优势

第33集:PyTorch 入门-动态计算图的优势


摘要

PyTorch 是一个灵活且强大的深度学习框架,其核心特性是动态计算图机制。本集将带您探索 PyTorch 的张量操作、自动求导系统以及动态计算图的特点与优势,并通过实战案例演示如何使用 PyTorch 实现线性回归和构建简单的图像分类模型。我们将重点突出 PyTorch 在研究与开发中的灵活性及其在 AI 大模型训练中的应用。


核心概念和知识点

1. 张量操作与自动求导

  • 张量(Tensor):类似于 NumPy 数组,但支持 GPU 加速。
  • 自动求导(Autograd):PyTorch 提供了自动微分功能,能够高效计算梯度,用于优化模型参数。

2. 动态计算图的特点与优势

  • 动态计算图:PyTorch 的计算图是在运行时动态构建的,支持即时调试和修改。
  • 灵活性:适合实验性研究,便于实现复杂的模型架构。
  • 直观性:代码执行过程清晰可见,易于理解。

3. 自定义模型与训练循环

  • 模型定义 :通过继承 torch.nn.Module 自定义模型结构。
  • 训练循环:手动实现前向传播、损失计算和反向传播,提供更细粒度的控制。

4. AI 大模型相关性分析

PyTorch 是目前主流的 AI 大模型框架之一,广泛应用于 GPT、BERT 等模型的训练:

  • 分布式训练支持 :通过 torch.distributed 模块实现多 GPU 和多节点训练。
  • 生态系统丰富:结合 Hugging Face Transformers 等库,可快速搭建和训练大模型。

实战案例

案例 1:使用 PyTorch 实现线性回归

背景

线性回归是最基础的机器学习任务之一,我们使用 PyTorch 实现一个简单的线性回归模型。

代码实现
python 复制代码
import torch
import torch.nn as nn
import torch.optim as optim
import matplotlib.pyplot as plt

# 数据生成
torch.manual_seed(42)
x = torch.linspace(-1, 1, 100).reshape(-1, 1)  # 输入特征
y = 3 * x + 2 + 0.2 * torch.randn(x.size())   # 带噪声的目标值

# 定义模型
class LinearRegressionModel(nn.Module):
    def __init__(self):
        super().__init__()
        self.linear = nn.Linear(1, 1)  # 单输入单输出的线性层

    def forward(self, x):
        return self.linear(x)

model = LinearRegressionModel()

# 定义损失函数和优化器
criterion = nn.MSELoss()
optimizer = optim.SGD(model.parameters(), lr=0.1)

# 训练模型
epochs = 100
for epoch in range(epochs):
    # 前向传播
    y_pred = model(x)
    loss = criterion(y_pred, y)

    # 反向传播与优化
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

    if (epoch + 1) % 10 == 0:
        print(f"Epoch {epoch+1}/{epochs}, Loss: {loss.item():.4f}")

# 可视化结果
predicted = model(x).detach().numpy()
plt.scatter(x.numpy(), y.numpy(), label="Original Data", alpha=0.6)
plt.plot(x.numpy(), predicted, 'r', label="Fitted Line")
plt.legend()
plt.title("Linear Regression with PyTorch")
plt.show()
输出结果
复制代码
Epoch 10/100, Loss: 0.0431
...
Epoch 100/100, Loss: 0.0012
可视化

案例 2:构建一个简单的图像分类模型

背景

我们使用 CIFAR-10 数据集,构建一个简单的卷积神经网络(CNN)进行图像分类。

代码实现
python 复制代码
import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.transforms as transforms

# 数据加载与预处理
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,))])
trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=32, shuffle=True)

testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=32, shuffle=False)

# 定义 CNN 模型
class SimpleCNN(nn.Module):
    def __init__(self):
        super().__init__()
        self.conv1 = nn.Conv2d(3, 16, 3, padding=1)
        self.pool = nn.MaxPool2d(2, 2)
        self.fc1 = nn.Linear(16 * 16 * 16, 10)

    def forward(self, x):
        x = self.pool(torch.relu(self.conv1(x)))
        x = x.view(-1, 16 * 16 * 16)
        x = self.fc1(x)
        return x

model = SimpleCNN()

# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)

# 训练模型
for epoch in range(5):  # 仅训练 5 个 epoch
    running_loss = 0.0
    for i, data in enumerate(trainloader):
        inputs, labels = data
        optimizer.zero_grad()
        outputs = model(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        running_loss += loss.item()
        if i % 100 == 99:  # 每 100 个 batch 打印一次损失
            print(f"[{epoch+1}, {i+1}] Loss: {running_loss / 100:.3f}")
            running_loss = 0.0

print("Finished Training")

# 测试模型
correct = 0
total = 0
with torch.no_grad():
    for data in testloader:
        images, labels = data
        outputs = model(images)
        _, predicted = torch.max(outputs, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

print(f"Accuracy on Test Set: {100 * correct / total:.2f}%")
输出结果
复制代码
[1, 100] Loss: 2.123
...
Accuracy on Test Set: 55.25%

总结

PyTorch 的动态计算图机制使其成为深度学习研究与开发的理想工具。通过本集的学习,我们掌握了如何使用 PyTorch 实现线性回归和构建简单的图像分类模型,并了解了其在灵活性和实验性方面的优势。


扩展思考

1. PyTorch 在 AI 大模型训练中的应用

PyTorch 是训练 GPT、BERT 等大模型的核心工具之一。其动态计算图机制使得研究人员能够快速迭代模型架构,而分布式训练支持则确保了大模型的高效训练。

2. PyTorch Lightning 的简化功能

PyTorch Lightning 是一个高级接口,旨在简化 PyTorch 的使用。它隐藏了训练循环的复杂性,同时保留了底层灵活性,特别适合大规模实验和生产环境。


专栏链接:Python实战进阶
下期预告:No34 - 使用 Pandas 高效处理时间序列数据

相关推荐
学习是种信仰啊17 分钟前
QT计算器开发
开发语言·c++·qt
风笑谷19 分钟前
视频字幕python自动提取
python·音视频·字幕翻译·字幕提取·配音
郭涤生32 分钟前
Chapter 2:A Tale of Two Values_《clean architecture》notes
开发语言·c++·笔记
<但凡.1 小时前
C++修炼:string类的使用
开发语言·c++·算法
你觉得2051 小时前
山东大学:《DeepSeek应用与部署》|附PPT下载方法
大数据·人工智能·python·机器学习·ai·aigc·内容运营
helbyYoung1 小时前
【零基础JavaScript入门 | Day7】三大交互案例深度解析|从DOM操作到组件化开发
开发语言·javascript
go54631584652 小时前
使用Python和PyTorch库实现基于DNN、CNN、LSTM的极化码译码器模型的代码示例
pytorch·python·dnn
小张-森林人2 小时前
C#中,什么是委托,什么是事件及它们之间的关系
开发语言·c#
何似在人间5752 小时前
JAVA实现动态IP黑名单过滤
java·开发语言·tcp/ip·nacos·黑名单过滤
夏有凉风,冬有雪2 小时前
AI写一个视频转图片帧工具(python)
人工智能·python·音视频