吴恩达机器学习笔记 二十一 迁移学习 预训练

迁移学习(transfer learning):直接把神经网络拿来,前面的参数可以直接用,把最后一层改了。

两种训练参数的方式:

1.只训练输出层的参数

2.训练所有参数

当只有一个小数据集的时候,第一种方法很好;若数据集稍微大一些的话第二个方法更好。

两个步骤:

监督预训练(supervised pretraining):在一个大数据集上训练,得到参数

微调(fine tuning):进一步训练,微调权重以适应具体的应用

迁移学习的另一个优点:可以直接用别人训练好的神经网络

迁移学习为什么有用? 例如图像识别来说,一个识别猫狗的神经网络的某些隐藏层可能是用来识别边界、识别线条,这些都是一些基本的操作,所以也可以直接用来识别手写数字。

相关推荐
玄〤6 小时前
黑马点评中 VoucherOrderServiceImpl 实现类中的一人一单实现解析(单机部署)
java·数据库·redis·笔记·后端·mybatis·springboot
知乎的哥廷根数学学派6 小时前
基于多模态特征融合和可解释性深度学习的工业压缩机异常分类与预测性维护智能诊断(Python)
网络·人工智能·pytorch·python·深度学习·机器学习·分类
编程小白_正在努力中7 小时前
第1章 机器学习基础
人工智能·机器学习
芯思路7 小时前
STM32开发学习笔记之三【按键】
笔记·stm32·学习
Lips6117 小时前
2026.1.11力扣刷题笔记
笔记·算法·leetcode
charlie1145141918 小时前
从 0 开始的机器学习——NumPy 线性代数部分
开发语言·人工智能·学习·线性代数·算法·机器学习·numpy
咚咚王者8 小时前
人工智能之核心基础 机器学习 第十二章 半监督学习
人工智能·学习·机器学习
袁气满满~_~9 小时前
Python数据分析学习
开发语言·笔记·python·学习
deephub9 小时前
构建自己的AI编程助手:基于RAG的上下文感知实现方案
人工智能·机器学习·ai编程·rag·ai编程助手
kebijuelun9 小时前
FlashInfer-Bench:把 AI 生成的 GPU Kernel 放进真实 LLM 系统的“闭环引擎”
人工智能·gpt·深度学习·机器学习·语言模型