提升minist的准确率并探索分类指标Precision,Recall,F1-Score和Accuracy

1 问题

探索提升mnist数据集的准确率。

探索precision, recall, f1-score的实现方法。

探索提升accuracy的方法。

2 方法

问题1

  1. 优化神经网络架构:一个常见的MNIST识别模型是LeNet-5,它是一个简单的神经网络架构。虽然LeNet-5的准确率已经相当高(约98%),但你可以尝试优化其架构以进一步提升准确率。例如,可以尝试添加更多的隐藏层,或者调整隐藏层节点的数量,以更好地适应数据。

  2. 采用更先进的模型:除了优化LeNet-5模型之外,你还可以考虑使用更先进的模型,如ResNet、VGGNet或DenseNet等。这些模型在许多图像分类任务中都表现优异,并可能进一步提高MNIST数据集的准确率。

  3. 数据增强:数据增强是一种通过应用各种随机变换来增加数据集大小的技术。例如,你可以旋转、平移、缩放或翻转图像,以生成新的训练样本。这可以帮助模型更好地泛化,从而减少测试误差。

  4. 早期停止:这是一个防止过拟合的策略,可以帮助模型在训练过程中更好地泛化。你可以在训练过程中监视模型的验证误差,当验证误差开始增加时,停止训练并使用最佳模型进行测试。

  5. 集成学习:集成学习是一种通过结合多个模型来提高预测精度的技术。例如,你可以训练几个不同的神经网络模型,并将它们的预测结果结合起来(例如,通过投票或平均)。这通常可以提高模型的准确性和鲁棒性。

优化神经网络架构

|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| class MyNet(nn.Module): def init(self): super().init() self.fc1 = nn.Linear(in_features=784, out_features=1024) self.fc2 = nn.Linear(in_features=1024, out_features=512) self.fc3 = nn.Linear(in_features=512, out_features=256) self.fc4 = nn.Linear(in_features=256, out_features=128) self.fc5 = nn.Linear(in_features=128, out_features=64) self.fc6 = nn.Linear(in_features=64, out_features=10) def forward(self, x): x = torch.flatten(x, start_dim=1) x = self.fc1(x) x = self.fc2(x) x = self.fc3(x) x = self.fc4(x) x = self.fc5(x) out = self.fc6(x) return out net = MyNet() |

问题2

3.Precision,Recall,F1-Score主要解决数据集中不平衡的问题,偏斜类数据:正负样本比例差距巨大时,为偏斜类数据,尤其是在医疗应用领域。

Precision:查准率,在模型预测为positive(正)的样本中其中的正样本(真实的正样本)所占的比例,针对判定结果而言,预测为正类的样本(TP+FP)中真正是正实例(TP)所占的比率。在类别的数量不均衡的情况下,查准率是评估模型性能的一个很有用的标准。

Recall:查全率,针对样本而言,被正确判定的正实例(TP)在总的正实例中(TP+FN)所占的比率。同查准率一样,查全率在类别的数量不均衡的情况下,也是评估模型性能的一个很有用的标准。

F1-Score:是精度(Precision)和召回率(Recall)的加权调和平均,F1-Score值越接近1,则模型在查全率与查准率两方面的综合表现越好。而Precision或Recall中,一旦有一项非常拉跨(接近于0),F值就会很低。

问题3

试举例计算模型的准确率,假设某模型将100个分为恶性(正类别)或良性

准确率(Accuracy)计算公式为:

准确率,就是在全部预测中,正确预测结果占的比例。

100个样本中,91个为良性,其中,1个FP(假正例)& 90个TN(真负例),9个为恶性,其中,1个TP(真正例)&8个FN(假负例)。

整个样本中有91个良性,该模型将90个样本正确识别为良性,将1个样本识别为恶性,这个效果很好。但是,在9个恶性样本中,将8个样本识别为良性,9个恶性有8个未被诊断出来,8/9,这个结果多么可怕!!!

91%的准确率,看起来还不错,如果另一个分类器模型总是预测良性,那么这个模型使用我们的样本进行预测,也会得出相同的准确率。

换句话说,该模型与那些没有预测恶性和良性的模型差不多。

还有,当我们使用分类不平衡的数据集(如:正类别标签与负类别标签数量存在明显差异)时,就一项准确率并不能反映情况。

3 结语

针对mnist数据集的准确率提升问题,本文提出了一些方法,如优化神经网络架构、采用更先进的模型、数据增强、早期停止等。也探索了precision, recall, f1-score的方法,并列出了公式。然后通过举例来计算该模型的准确率(Accuracy),可以看出该模型与那些没有预测恶性和良性的模型差不多。

相关推荐
无心水4 小时前
【分布式利器:腾讯TSF】10、TSF故障排查与架构评审实战:Java架构师从救火到防火的生产哲学
java·人工智能·分布式·架构·限流·分布式利器·腾讯tsf
燃于AC之乐6 小时前
我的算法修炼之路--4 ———我和算法的爱恨情仇
算法·前缀和·贪心算法·背包问题·洛谷
小鸡吃米…10 小时前
机器学习 - K - 中心聚类
人工智能·机器学习·聚类
好奇龙猫11 小时前
【AI学习-comfyUI学习-第三十节-第三十一节-FLUX-SD放大工作流+FLUX图生图工作流-各个部分学习】
人工智能·学习
沈浩(种子思维作者)11 小时前
真的能精准医疗吗?癌症能提前发现吗?
人工智能·python·网络安全·健康医疗·量子计算
minhuan11 小时前
大模型应用:大模型越大越好?模型参数量与效果的边际效益分析.51
人工智能·大模型参数评估·边际效益分析·大模型参数选择
Cherry的跨界思维11 小时前
28、AI测试环境搭建与全栈工具实战:从本地到云平台的完整指南
java·人工智能·vue3·ai测试·ai全栈·测试全栈·ai测试全栈
MM_MS11 小时前
Halcon变量控制类型、数据类型转换、字符串格式化、元组操作
开发语言·人工智能·深度学习·算法·目标检测·计算机视觉·视觉检测
ASF1231415sd12 小时前
【基于YOLOv10n-CSP-PTB的大豆花朵检测与识别系统详解】
人工智能·yolo·目标跟踪
独自破碎E12 小时前
【二分法】寻找峰值
算法