在 PyTorch 中,"验证模型"通常包含两层含义:一是在训练过程中监控模型泛化能力 (使用验证集),二是在训练结束后测试最终性能 (使用测试集)或对单张图片进行推理。
下面我将为你详细介绍这两种场景的完整流程和代码实现。
1. 训练过程中的验证(Validation)
这是为了防止过拟合。我们在每个训练周期(Epoch)结束后,将模型切换到评估模式,使用验证集数据计算损失和准确率。
核心步骤:
- 切换模式 :
model.eval()。 - 禁用梯度 :
with torch.no_grad():。 - 计算指标:在验证集上计算准确率或损失。
python
import torch
import torch.nn as nn
from torch.utils.data import DataLoader
# 假设 model, criterion, val_loader 已经定义好
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model.to(device)
def validate_model():
model.eval() # 1. 切换到评估模式 (关闭 Dropout/BatchNorm 的训练行为)
val_loss = 0
correct = 0
total = 0
with torch.no_grad(): # 2. 禁用梯度计算,节省内存
for data, target in val_loader:
data, target = data.to(device), target.to(device)
output = model(data)
val_loss += criterion(output, target).item() # 累加损失
# 计算准确率
_, predicted = output.max(1)
total += target.size(0)
correct += predicted.eq(target).sum().item()
# 计算平均损失和准确率
avg_loss = val_loss / len(val_loader)
accuracy = 100. * correct / total
print(f'Validation Loss: {avg_loss:.4f}, Accuracy: {accuracy:.2f}%')
return avg_loss, accuracy
# 在训练循环中调用
# for epoch in range(num_epochs):
# train_one_epoch() # 训练
# validate_model() # 验证
2. 训练结束后的测试(Test/Inference)
当模型训练完成后,我们需要在从未见过的测试集 上评估其最终性能,或者对单张图片进行预测。
场景 A:测试集整体评估
流程与验证类似,但通常只在训练结束后运行一次。
python
def test_model():
model.eval()
test_loss = 0
correct = 0
total = 0
with torch.no_grad():
for data, target in test_loader:
data, target = data.to(device), target.to(device)
output = model(data)
test_loss += criterion(output, target).item()
_, predicted = output.max(1)
total += target.size(0)
correct += predicted.eq(target).sum().item()
print(f'\n最终测试集准确率: {100.*correct/total:.2f}%')
return correct / total
场景 B:单张图片推理(预测)
这是将模型投入实际应用的场景,比如识别一张猫的图片。
python
from PIL import Image
import torchvision.transforms as transforms
def predict_image(image_path):
model.eval()
# 1. 加载并预处理图片 (必须与训练时的预处理一致)
image = Image.open(image_path).convert('RGB')
transform = transforms.Compose([
transforms.Resize((32, 32)), # 例如 CIFAR-10 的尺寸
transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
])
image = transform(image).unsqueeze(0) # 增加 batch 维度: [1, C, H, W]
image = image.to(device)
# 2. 进行预测
with torch.no_grad():
output = model(image)
probabilities = torch.softmax(output, dim=1) # 转换为概率
predicted_class = output.argmax(1).item() # 获取预测类别
print(f"预测类别: {predicted_class}, 置信度: {probabilities[0][predicted_class].item():.4f}")
return predicted_class
⚠️ 关键注意事项
-
model.eval()的重要性:- 必须在验证/测试前调用。
- 它会改变
Dropout和BatchNorm层的行为。如果不加,Dropout 会在测试时随机丢弃神经元,导致结果不稳定。
-
torch.no_grad()的重要性:- 验证和测试时不需要计算梯度。
- 使用它可以大幅减少显存消耗,并加快推理速度。
-
数据预处理一致性:
- 验证集和测试集的预处理(Resize、Normalize、ToTensor)必须与训练集完全一致。否则模型的表现会大打折扣。
总结
- 验证集:在训练循环内部,每个 Epoch 后调用,用于调整超参数。
- 测试集:在训练循环外部,训练结束后调用,用于查看最终成绩。
- 单图预测:加载模型权重,输入一张图片,输出预测结果。