在深度学习模型的训练与评估流程中,模型测试和 ** 网络结构优化(如全局平均池化的应用)** 是关键环节。结合 PyTorch 框架,可从以下两方面分析:
一、模型测试:整体与类别级准确率评估
模型训练完成后,需在测试集上评估性能。PyTorch 中通常通过以下步骤实现精准的性能分析:
-
整体准确率计算:
- 用
torch.no_grad()
关闭梯度计算,避免测试时不必要的内存消耗。 - 遍历测试数据集加载器(
testloader
),将图像与标签迁移至目标设备(CPU/GPU,通过to(device)
完成)。 - 模型前向传播(
net(images)
)得到输出后,通过torch.max(outputs.data, 1)
提取预测类别(predicted
)。 - 统计总样本数(
total
)与预测正确的样本数(correct
),最终计算整体准确率(100 * correct / total
),快速判断模型整体泛化能力。
- 用
-
类别级准确率分析:为细致探究模型在每个类别上的表现,需逐类统计准确率:
- 初始化两个长度为类别数(如 CIFAR-10 的 10 类)的列表
class_correct
(记录每类预测正确的样本数)和class_total
(记录每类总样本数)。 - 遍历测试数据时,逐一对每个样本的预测结果与真实标签进行比对,通过标签索引更新对应类别的
class_correct
和class_total
。 - 最后逐类计算准确率(
100 * class_correct[i] / class_total[i]
),可清晰发现模型在不同类别上的性能差异(如图中 "car" 类准确率达 82%,"cat" 类仅 45%),为后续优化提供方向。
- 初始化两个长度为类别数(如 CIFAR-10 的 10 类)的列表
二、全局平均池化:简化网络与减少参数
传统 CNN 常依赖全连接层(FC)连接卷积层与输出层,但全连接层参数多、易过拟合。** 全局平均池化(Global Average Pooling, GAP)** 是优化网络结构的有效手段:
-
原理与优势:全局平均池化会对每个卷积层输出的特征图(feature map)做 "全局平均",得到一个与 "特征图数量" 相等的向量。例如,若卷积层输出 36 个特征图,GAP 后会得到长度为 36 的向量。相比全连接层,GAP 的核心优势是:
- 减少参数数量:避免全连接层大量权重参数,降低过拟合风险,同时减少计算开销。
- 简化维度匹配:无需手动计算全连接层的输入维度(输出向量长度由特征图数量直接决定),让网络设计更简洁。
-
PyTorch 实现与效果 :图中通过
torch.nn.AdaptiveAvgPool2d(1)
实现全局平均池化(输出尺寸为1×1
)。修改后的Net
类移除了原有的全连接层(如注释的self.fc1
),替换为 "卷积层→全局平均池化→小型全连接层(self.fc3
)" 的结构。从参数总数(通过sum(x.numel() for x in net.parameters())
统计)可见,采用 GAP 后模型参数显著减少(图中为 16022 个),网络结构更简洁且泛化能力更强。
综上,模型测试 帮助我们从 "整体" 和 "类别级" 全面评估性能,全局平均池化则是优化网络结构、提升泛化能力的关键手段,二者共同支撑深度学习模型的迭代与优化。