基于PyTorch的深度学习——迁移学习2

现在将迁移学习的特征提取应用于CIFAR-10

python 复制代码
import torch
from torch import nn
import torch.nn.functional as F
import torchvision
import torchvision.transforms as transforms
from torchvision import models
from torchvision.datasets import ImageFolder
from datetime import datetime

加载数据

python 复制代码
import torch
import torchvision
from torchvision import transforms

# =============== 1. 定义数据变换 ===============
# 训练集:增强 + 归一化(适配 ImageNet 预训练模型)
train_transform = transforms.Compose([
    transforms.Resize(256),               # 将 32x32 放大到 256x256
    transforms.RandomCrop(224),           # 随机裁剪出 224x224 区域
    transforms.RandomHorizontalFlip(),    # 随机水平翻转(数据增强)
    transforms.ToTensor(),
    transforms.Normalize(
        mean=[0.485, 0.456, 0.406],       # ImageNet 的均值
        std=[0.229, 0.224, 0.225]         # ImageNet 的标准差
    )
])

# 测试集:不增强,只做确定性变换
test_transform = transforms.Compose([
    transforms.Resize(256),
    transforms.CenterCrop(224),           # 中心裁剪(非随机)
    transforms.ToTensor(),
    transforms.Normalize(
        mean=[0.485, 0.456, 0.406],
        std=[0.229, 0.224, 0.225]
    )
])

# =============== 2. 加载数据集 ===============
trainset = torchvision.datasets.CIFAR10(
    root="/data",
    train=True,
    download=False,      # 若未下载过,可设为 True(首次运行)
    transform=train_transform
)

testset = torchvision.datasets.CIFAR10(
    root="/data",
    train=False,
    download=False,
    transform=test_transform
)

# =============== 3. 创建 DataLoader ===============
trainloader = torch.utils.data.DataLoader(
    trainset,
    batch_size=64,
    shuffle=True,
    num_workers=2
)

testloader = torch.utils.data.DataLoader(
    testset,
    batch_size=64,
    shuffle=False,       # 测试时通常不打乱
    num_workers=2
)

# =============== 4. 类别标签(可选)==============
classes = ('plane', 'car', 'bird', 'cat', 'deer',
           'dog', 'frog', 'horse', 'ship', 'truck')

接下来,下载预训练模型,冻结模型参数使得反向传播时不更新,修改最后一层输出类别(512x1000改成512x10)

python 复制代码
import torch
import torch.nn as nn
import torchvision.models as models

# =============== 1. 加载预训练的 ResNet18 模型 ===============
model = models.resnet18(weights=models.ResNet18_Weights.DEFAULT)

# =============== 2. 冻结所有参数 ===============
for param in model.parameters():
    param.requires_grad = False

# =============== 3. 替换最后一层 ===============
# 原始的最后一层是 nn.Linear(512, 1000),现在我们将其改为 nn.Linear(512, 10)
num_ftrs = model.fc.in_features  # 获取原始最后一层输入特征的数量
model.fc = nn.Linear(num_ftrs, 10)  # 替换成新的全连接层,输出为 10 类别

# =============== 4. 确认只有新添加的层可训练 ===============
# 可选:打印模型中需要梯度计算的参数
for name, param in model.named_parameters():
    print(name, param.requires_grad)

# =============== 5. 创建损失函数和优化器 ===============
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.fc.parameters(), lr=0.001, momentum=0.9)

# 只优化 model.fc 这一层的参数
# 注意:这里仅展示了如何定义损失函数和优化器,
# 实际训练过程还需要结合 DataLoader 进行迭代训练。
相关推荐
Forrit3 小时前
ptyorch安装
pytorch
yLDeveloper4 小时前
从模型评估、梯度难题到科学初始化:一步步解析深度学习的训练问题
深度学习
Coder_Boy_4 小时前
技术让开发更轻松的底层矛盾
java·大数据·数据库·人工智能·深度学习
2401_836235865 小时前
中安未来SDK15:以AI之眼,解锁企业档案的数字化基因
人工智能·科技·深度学习·ocr·生活
njsgcs5 小时前
llm使用 AgentScope-Tuner 通过 RL 训练 FrozenLake 智能体
人工智能·深度学习
2的n次方_6 小时前
CANN ascend-transformer-boost 架构解析:融合注意力算子管线、长序列分块策略与图引擎协同机制
深度学习·架构·transformer
人工智能培训6 小时前
具身智能视觉、触觉、力觉、听觉等信息如何实时对齐与融合?
人工智能·深度学习·大模型·transformer·企业数字化转型·具身智能
pp起床7 小时前
Gen_AI 补充内容 Logit Lens 和 Patchscopes
人工智能·深度学习·机器学习
阿杰学AI8 小时前
AI核心知识91——大语言模型之 Transformer 架构(简洁且通俗易懂版)
人工智能·深度学习·ai·语言模型·自然语言处理·aigc·transformer
芷栀夏8 小时前
CANN ops-math:筑牢 AI 神经网络底层的高性能数学运算算子库核心实现
人工智能·深度学习·神经网络