吴恩达机器学习笔记 二十一 迁移学习 预训练

迁移学习(transfer learning):直接把神经网络拿来,前面的参数可以直接用,把最后一层改了。

两种训练参数的方式:

1.只训练输出层的参数

2.训练所有参数

当只有一个小数据集的时候,第一种方法很好;若数据集稍微大一些的话第二个方法更好。

两个步骤:

监督预训练(supervised pretraining):在一个大数据集上训练,得到参数

微调(fine tuning):进一步训练,微调权重以适应具体的应用

迁移学习的另一个优点:可以直接用别人训练好的神经网络

迁移学习为什么有用? 例如图像识别来说,一个识别猫狗的神经网络的某些隐藏层可能是用来识别边界、识别线条,这些都是一些基本的操作,所以也可以直接用来识别手写数字。

相关推荐
上天夭1 小时前
模型训练篇
人工智能·深度学习·机器学习
做cv的小昊1 小时前
计算机图形学:【Games101】学习笔记05——着色(插值、高级纹理映射)与几何(基本表示方法)
笔记·opencv·学习·计算机视觉·图形渲染·几何学
Blossom.1181 小时前
AI编译器实战:从零手写算子融合与自动调度系统
人工智能·python·深度学习·机器学习·flask·transformer·tornado
如果你想拥有什么先让自己配得上拥有2 小时前
数学思想和数学思维分别都有什么?
线性代数·算法·机器学习
core5122 小时前
Adaboost (Adaptive Boosting):错题本上的逆袭
机器学习·adaboost·boosting
高洁015 小时前
图神经网络初探(2)
人工智能·深度学习·算法·机器学习·transformer
iconball5 小时前
个人用云计算学习笔记 --24 虚拟化、KVM 基础使用与热迁移实验、VMware ESXi笔记
运维·笔记·学习·云计算
祝余Eleanor5 小时前
Day 51 神经网络调参指南
深度学习·神经网络·机器学习
是小菜呀!6 小时前
基于深度学习的图像检索系统项目实践
笔记
吾在学习路7 小时前
【CVPR 2018最佳论文】Squeeze-and-Excitation Networks
人工智能·深度学习·神经网络·机器学习