提升minist的准确率并探索分类指标Precision,Recall,F1-Score和Accuracy

1 问题

探索提升mnist数据集的准确率。

探索precision, recall, f1-score的实现方法。

探索提升accuracy的方法。

2 方法

问题1

  1. 优化神经网络架构:一个常见的MNIST识别模型是LeNet-5,它是一个简单的神经网络架构。虽然LeNet-5的准确率已经相当高(约98%),但你可以尝试优化其架构以进一步提升准确率。例如,可以尝试添加更多的隐藏层,或者调整隐藏层节点的数量,以更好地适应数据。

  2. 采用更先进的模型:除了优化LeNet-5模型之外,你还可以考虑使用更先进的模型,如ResNet、VGGNet或DenseNet等。这些模型在许多图像分类任务中都表现优异,并可能进一步提高MNIST数据集的准确率。

  3. 数据增强:数据增强是一种通过应用各种随机变换来增加数据集大小的技术。例如,你可以旋转、平移、缩放或翻转图像,以生成新的训练样本。这可以帮助模型更好地泛化,从而减少测试误差。

  4. 早期停止:这是一个防止过拟合的策略,可以帮助模型在训练过程中更好地泛化。你可以在训练过程中监视模型的验证误差,当验证误差开始增加时,停止训练并使用最佳模型进行测试。

  5. 集成学习:集成学习是一种通过结合多个模型来提高预测精度的技术。例如,你可以训练几个不同的神经网络模型,并将它们的预测结果结合起来(例如,通过投票或平均)。这通常可以提高模型的准确性和鲁棒性。

优化神经网络架构

|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| class MyNet(nn.Module): def init(self): super().init() self.fc1 = nn.Linear(in_features=784, out_features=1024) self.fc2 = nn.Linear(in_features=1024, out_features=512) self.fc3 = nn.Linear(in_features=512, out_features=256) self.fc4 = nn.Linear(in_features=256, out_features=128) self.fc5 = nn.Linear(in_features=128, out_features=64) self.fc6 = nn.Linear(in_features=64, out_features=10) def forward(self, x): x = torch.flatten(x, start_dim=1) x = self.fc1(x) x = self.fc2(x) x = self.fc3(x) x = self.fc4(x) x = self.fc5(x) out = self.fc6(x) return out net = MyNet() |

问题2

3.Precision,Recall,F1-Score主要解决数据集中不平衡的问题,偏斜类数据:正负样本比例差距巨大时,为偏斜类数据,尤其是在医疗应用领域。

Precision:查准率,在模型预测为positive(正)的样本中其中的正样本(真实的正样本)所占的比例,针对判定结果而言,预测为正类的样本(TP+FP)中真正是正实例(TP)所占的比率。在类别的数量不均衡的情况下,查准率是评估模型性能的一个很有用的标准。

Recall:查全率,针对样本而言,被正确判定的正实例(TP)在总的正实例中(TP+FN)所占的比率。同查准率一样,查全率在类别的数量不均衡的情况下,也是评估模型性能的一个很有用的标准。

F1-Score:是精度(Precision)和召回率(Recall)的加权调和平均,F1-Score值越接近1,则模型在查全率与查准率两方面的综合表现越好。而Precision或Recall中,一旦有一项非常拉跨(接近于0),F值就会很低。

问题3

试举例计算模型的准确率,假设某模型将100个分为恶性(正类别)或良性

准确率(Accuracy)计算公式为:

准确率,就是在全部预测中,正确预测结果占的比例。

100个样本中,91个为良性,其中,1个FP(假正例)& 90个TN(真负例),9个为恶性,其中,1个TP(真正例)&8个FN(假负例)。

整个样本中有91个良性,该模型将90个样本正确识别为良性,将1个样本识别为恶性,这个效果很好。但是,在9个恶性样本中,将8个样本识别为良性,9个恶性有8个未被诊断出来,8/9,这个结果多么可怕!!!

91%的准确率,看起来还不错,如果另一个分类器模型总是预测良性,那么这个模型使用我们的样本进行预测,也会得出相同的准确率。

换句话说,该模型与那些没有预测恶性和良性的模型差不多。

还有,当我们使用分类不平衡的数据集(如:正类别标签与负类别标签数量存在明显差异)时,就一项准确率并不能反映情况。

3 结语

针对mnist数据集的准确率提升问题,本文提出了一些方法,如优化神经网络架构、采用更先进的模型、数据增强、早期停止等。也探索了precision, recall, f1-score的方法,并列出了公式。然后通过举例来计算该模型的准确率(Accuracy),可以看出该模型与那些没有预测恶性和良性的模型差不多。

相关推荐
-dzk-4 小时前
【代码随想录】LC 59.螺旋矩阵 II
c++·线性代数·算法·矩阵·模拟
水如烟4 小时前
孤能子视角:“组织行为学–组织文化“
人工智能
大山同学4 小时前
图片补全-Context Encoder
人工智能·机器学习·计算机视觉
风筝在晴天搁浅4 小时前
hot100 78.子集
java·算法
Jasmine_llq4 小时前
《P4587 [FJOI2016] 神秘数》
算法·倍增思想·稀疏表(st 表)·前缀和数组(解决静态区间和查询·st表核心实现高效预处理和查询·预处理优化(提前计算所需信息·快速io提升大规模数据读写效率
薛定谔的猫19824 小时前
十七、用 GPT2 中文对联模型实现经典上联自动对下联:
人工智能·深度学习·gpt2·大模型 训练 调优
超级大只老咪5 小时前
快速进制转换
笔记·算法
壮Sir不壮5 小时前
2026年奇点:Clawdbot引爆个人AI代理
人工智能·ai·大模型·claude·clawdbot·moltbot·openclaw
PaperRed ai写作降重助手5 小时前
高性价比 AI 论文写作软件推荐:2026 年预算友好型
人工智能·aigc·论文·写作·ai写作·智能降重
玉梅小洋5 小时前
Claude Code 从入门到精通(七):Sub Agent 与 Skill 终极PK
人工智能·ai·大模型·ai编程·claude·ai工具