机器学习 day33(误差分析、添加数据、迁移学习)

  1. 误差分析
  • 我们可以手动查看分类错误的子集样本(通常为100个),并统计他们的错误类型
  • 在所有错误类型中,选择一种或几种最常见的错误,进行改进。这可以最高效的改进你的模型
  • 误差分析的一个限制是:它只能很好的解决人类擅长的问题
  1. 添加数据
  • 添加数据有三种常见方法:直接添加全新的数据,数据增强,数据合成
  • 添加所有类型的全新数据可能又贵又慢,因此添加有针对性的全新数据可以更低成本的改进模型
  • 在图像和音频领域,数据增强是一种显著增加数据集的方法。
  • 数据增强:通过旋转、缩小、方法、增加对比度、镜像变换等改变已有的训练样本,来获得一个全新的训练样本
  • 数据增强的高级变换例子:在图片上加一个网格,并随机扭曲网格,从而获得一个更丰富的数据集
  • 数据增强,是在数据中制造更多的噪音,同时最后的结果应当与测试集接近
  • 数据合成:通常用于计算机视觉领域。上图右侧的例子是使用电脑上的字体,通过不同的对比度,颜色,字体进行截图得到。
  • AI包括代码(算法或模型)+ 数据,通常我们是以模型为中心来改进我们的系统,但也可以以数据为中心来改进我们的系统
  1. 迁移学习
  • 迁移学习分为两步:首先为监督预训练,即在一个非常大且与任务目标不完全相关数据集上对模型进行预训练,其次为微调,即在监督预训练中获得或初始化大部分参数的基础上,根据任务目标相关的数据集,进一步运行梯度下降或Adam算法,来微调所有权重参数或仅获得(改变)输出层参数
  • 微调有两种方法:一种是仅获得(改变)输出层的参数,适用于任务目标相关的数据集比较小。一种是训练所有权重参数,适用于任务目标相关的数据集稍大
  • 迁移学习的一个好处是,我们可以在网络上下载已经预训练完成的神经网络,省去了我们自己进行监督预训练的步骤
  • 由上图可以看出,神经网络在前几层学会了检测边缘,检测角点,检测曲线等通用基本形状,这对神经网络进行其他图片识别任务很有帮助。
  • 迁移学习的一个限制是,预训练和微调的数据集必须是同一个类型的,即都是图像数据或音频数据或文本数据
相关推荐
LcGero几秒前
Cocos Creator 的 NPC AI 架构实现
人工智能·ai·架构·npc
靠沿1 分钟前
【递归、搜索与回溯算法】专题三——穷举vs暴搜vs深搜vs回溯vs剪枝
算法·机器学习·剪枝
2501_933329555 分钟前
Infoseek舆情监测系统:基于大模型与多模态AI的品牌公关中台架构设计与实现
人工智能·分布式·自然语言处理·架构
码农小白AI9 分钟前
IA-Lab AI 检测报告生成助手:新能源汽车检测报告智能生成与审核新路径,全面适配动力电池标准体系
大数据·人工智能·汽车
w_t_y_y11 分钟前
项目篇(一)机器学习项目步骤
人工智能·机器学习·信息可视化
竹之却17 分钟前
【Agent-阿程】AI先锋杯·14天征文挑战第14期-第1天-大模型微调技术实战
人工智能·机器学习·lora·大模型·qlora·微调技术
编程牛马姐19 分钟前
2026年Pinterest矩阵运营全攻略
大数据·人工智能
ws20190720 分钟前
技术赋能,机遇共生:AUTO TECH China 2026广州汽车零部件展解码产业新未来
大数据·人工智能·科技·汽车
IT_陈寒20 分钟前
Java线程池用完不关闭?小心内存泄漏找上门
前端·人工智能·后端
分布式存储与RustFS21 分钟前
AI 数据湖最佳实践:RustFS 支撑大模型训练的存储架构与性能优化
人工智能·性能优化·架构·对象存储·minio·企业存储·rustfs