李宏毅机器学习深度学习:机器学习任务攻略

课程概要

介绍了当我们遇到模型效果(loss)不理想时,进行模型优化的分析方法和思路。

Part 1> 原因分析

可能的原因:

  • 数据集标签不够(标签之间的因果关联性不强)

  • 模型简单(神经元层数不够)

  • 优化问题(optimization)

  • 训练过拟合 (ovefiting)

  • 训练集和测试集 统计学数据分布不匹配(mismatch)

判断方法

是不是训练集和测试集mismatch

训练集如果loss很低,但测试集loss高,则可以分析 训练集和测试集的区别

mismatch的情况示例:

e.g.1 用动物园的图像分类模型,识别野生动物

e.g.2 用亚洲人的特征识别模型,识别欧洲人的特征

是不是过拟合

训练集如果loss很低,但测试集loss高,且不太可能是mismatch的情况,说明很可能是过拟合

模型简单

加了神经元,没有优化效果:加了神经元,训练集和测试集的loss依然很高

则排除是模型简单的原因;

是不是optimization问题

不是上述两个,则可能是optimization

Part 2> 解决思路

应对overfiting:

方法一:增加/丰富数据集

  • 收集真实数据

  • 通过小样本扩增法(e.g. 图像左右反转、镜像等合理调整)

方法二:增加限制条件

  • 简化模型------减少参数

  • 减少关联性较少的标签(features)

  • 减少训练次数

  • 【预告】regularization数据归一化处理

  • 简化模型------减少少神经元(dropout)

  • 【预告】全连接网络、CNN部分讲

Part 3> 验证效果

通过公开数据集、私有数据集和自己的数据集中划分出的validtion set验证。

public数据集验证:

目的:公众说服力

示例:MINST手写数字

private数据集验证:

目的:公众说服力 / 领域内说服力。

示例:医患数据集(医患数据涉及病人隐私,常为非公开数据集)

validation数据集验证:

目的:证明神经网络/模型结构设计合理性、可解释性(逻辑自洽);也可以证明 泛用性(可迁移性)通用性

方法:validation 数据集划分(N-flod Cross法划分, "交叉验证"取平均值)

图为N-flod中N为3的示例。

相关推荐
m0_7482347120 分钟前
【大模型】Ollama+open-webuiAnything LLM部署本地大模型构建RAG个人知识库教程(Mac)
人工智能·macos
deephub24 分钟前
ORCA:基于持续批处理的LLM推理性能优化技术详解
人工智能·深度学习·性能优化·llm
roman_日积跬步-终至千里32 分钟前
【人工智能基础06】人工神经网络(练习题):神经网络的计算、激活函数的选择与神经网络的退化
人工智能·深度学习·神经网络
一勺汤1 小时前
YOLO11改进-模块-引入多尺度差异融合模块MDFM
人工智能·深度学习·yolo·目标检测·模块·改进·yolov11
湖南罗泽南1 小时前
交叉熵损失函数(Cross-Entropy Loss)
人工智能
A Genius1 小时前
Pytorch实现MobilenetV2官方源码
人工智能·pytorch·python
道友老李2 小时前
【OpenCV】直方图
人工智能·opencv·计算机视觉
通信仿真实验室2 小时前
Google BERT入门(5)Transformer通过位置编码学习位置
人工智能·深度学习·神经网络·自然语言处理·nlp·bert·transformer
唐天下文化2 小时前
飞猪携手新疆机场集团,共创旅游新体验,翻开新疆旅游新篇章
人工智能·旅游
正在走向自律2 小时前
深度学习:重塑学校教育的未来
人工智能·深度学习·机器学习