吴恩达机器学习笔记 二十一 迁移学习 预训练

迁移学习(transfer learning):直接把神经网络拿来,前面的参数可以直接用,把最后一层改了。

两种训练参数的方式:

1.只训练输出层的参数

2.训练所有参数

当只有一个小数据集的时候,第一种方法很好;若数据集稍微大一些的话第二个方法更好。

两个步骤:

监督预训练(supervised pretraining):在一个大数据集上训练,得到参数

微调(fine tuning):进一步训练,微调权重以适应具体的应用

迁移学习的另一个优点:可以直接用别人训练好的神经网络

迁移学习为什么有用? 例如图像识别来说,一个识别猫狗的神经网络的某些隐藏层可能是用来识别边界、识别线条,这些都是一些基本的操作,所以也可以直接用来识别手写数字。

相关推荐
cskywit5 小时前
从DFL到无NMS推理:一文拆解YOLO26背后的工程取舍与数学原理
人工智能·机器学习
左左右右左右摇晃6 小时前
HashMap 扩容机制
笔记
2301_781143567 小时前
C语言学习笔记
笔记·学习
罗西的思考8 小时前
【GUI-Agent】阶跃星辰 GUI-MCP 解读---(1)---论文
人工智能·机器学习
蒸蒸yyyyzwd9 小时前
高并发40问学习笔记
笔记·学习
Amazing_Cacao11 小时前
褪去故事滤镜:重建精品可可的“结构语言”
笔记·学习
日更嵌入式的打工仔12 小时前
二值信号量 vs 互斥量
笔记
star learning white12 小时前
2.3线性代数
人工智能·机器学习
Try,多训练12 小时前
论文排版之添加图片、表格、公式的题注
经验分享·笔记