提升minist的准确率并探索分类指标Precision,Recall,F1-Score和Accuracy

1 问题

探索提升mnist数据集的准确率。

探索precision, recall, f1-score的实现方法。

探索提升accuracy的方法。

2 方法

问题1

  1. 优化神经网络架构:一个常见的MNIST识别模型是LeNet-5,它是一个简单的神经网络架构。虽然LeNet-5的准确率已经相当高(约98%),但你可以尝试优化其架构以进一步提升准确率。例如,可以尝试添加更多的隐藏层,或者调整隐藏层节点的数量,以更好地适应数据。

  2. 采用更先进的模型:除了优化LeNet-5模型之外,你还可以考虑使用更先进的模型,如ResNet、VGGNet或DenseNet等。这些模型在许多图像分类任务中都表现优异,并可能进一步提高MNIST数据集的准确率。

  3. 数据增强:数据增强是一种通过应用各种随机变换来增加数据集大小的技术。例如,你可以旋转、平移、缩放或翻转图像,以生成新的训练样本。这可以帮助模型更好地泛化,从而减少测试误差。

  4. 早期停止:这是一个防止过拟合的策略,可以帮助模型在训练过程中更好地泛化。你可以在训练过程中监视模型的验证误差,当验证误差开始增加时,停止训练并使用最佳模型进行测试。

  5. 集成学习:集成学习是一种通过结合多个模型来提高预测精度的技术。例如,你可以训练几个不同的神经网络模型,并将它们的预测结果结合起来(例如,通过投票或平均)。这通常可以提高模型的准确性和鲁棒性。

优化神经网络架构

|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| class MyNet(nn.Module): def init(self): super().init() self.fc1 = nn.Linear(in_features=784, out_features=1024) self.fc2 = nn.Linear(in_features=1024, out_features=512) self.fc3 = nn.Linear(in_features=512, out_features=256) self.fc4 = nn.Linear(in_features=256, out_features=128) self.fc5 = nn.Linear(in_features=128, out_features=64) self.fc6 = nn.Linear(in_features=64, out_features=10) def forward(self, x): x = torch.flatten(x, start_dim=1) x = self.fc1(x) x = self.fc2(x) x = self.fc3(x) x = self.fc4(x) x = self.fc5(x) out = self.fc6(x) return out net = MyNet() |

问题2

3.Precision,Recall,F1-Score主要解决数据集中不平衡的问题,偏斜类数据:正负样本比例差距巨大时,为偏斜类数据,尤其是在医疗应用领域。

Precision:查准率,在模型预测为positive(正)的样本中其中的正样本(真实的正样本)所占的比例,针对判定结果而言,预测为正类的样本(TP+FP)中真正是正实例(TP)所占的比率。在类别的数量不均衡的情况下,查准率是评估模型性能的一个很有用的标准。

Recall:查全率,针对样本而言,被正确判定的正实例(TP)在总的正实例中(TP+FN)所占的比率。同查准率一样,查全率在类别的数量不均衡的情况下,也是评估模型性能的一个很有用的标准。

F1-Score:是精度(Precision)和召回率(Recall)的加权调和平均,F1-Score值越接近1,则模型在查全率与查准率两方面的综合表现越好。而Precision或Recall中,一旦有一项非常拉跨(接近于0),F值就会很低。

问题3

试举例计算模型的准确率,假设某模型将100个分为恶性(正类别)或良性

准确率(Accuracy)计算公式为:

准确率,就是在全部预测中,正确预测结果占的比例。

100个样本中,91个为良性,其中,1个FP(假正例)& 90个TN(真负例),9个为恶性,其中,1个TP(真正例)&8个FN(假负例)。

整个样本中有91个良性,该模型将90个样本正确识别为良性,将1个样本识别为恶性,这个效果很好。但是,在9个恶性样本中,将8个样本识别为良性,9个恶性有8个未被诊断出来,8/9,这个结果多么可怕!!!

91%的准确率,看起来还不错,如果另一个分类器模型总是预测良性,那么这个模型使用我们的样本进行预测,也会得出相同的准确率。

换句话说,该模型与那些没有预测恶性和良性的模型差不多。

还有,当我们使用分类不平衡的数据集(如:正类别标签与负类别标签数量存在明显差异)时,就一项准确率并不能反映情况。

3 结语

针对mnist数据集的准确率提升问题,本文提出了一些方法,如优化神经网络架构、采用更先进的模型、数据增强、早期停止等。也探索了precision, recall, f1-score的方法,并列出了公式。然后通过举例来计算该模型的准确率(Accuracy),可以看出该模型与那些没有预测恶性和良性的模型差不多。

相关推荐
风象南9 分钟前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶40 分钟前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶41 分钟前
前端人为什么要学AI?
前端·人工智能·ai编程
哥布林学者2 小时前
高光谱成像(一)高光谱图像
机器学习·高光谱成像
地平线开发者2 小时前
SparseDrive 模型导出与性能优化实战
算法·自动驾驶
董董灿是个攻城狮3 小时前
大模型连载2:初步认识 tokenizer 的过程
算法
地平线开发者3 小时前
地平线 VP 接口工程实践(一):hbVPRoiResize 接口功能、使用约束与典型问题总结
算法·自动驾驶
罗西的思考3 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab4 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab4 小时前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯