深度学习概念(术语):Fine-tuning、Knowledge Distillation, etc

文章目录

  • 1.Fine-tuning (微调)
  • [2.Transfer Learning (迁移学习)](#2.Transfer Learning (迁移学习))
  • [3.Knowledge Distillation (知识蒸馏)](#3.Knowledge Distillation (知识蒸馏))
  • [4.Meta Learning (元学习)](#4.Meta Learning (元学习))

这里的相关概念都是基于已有预训练模型,就是模型本身已经训练好,有一定泛化能力。需要"再加工"满足别的任务需求。

进入后GPT时代,对模型的Fine-tuning也将成为趋势,借此机会,我来科普下相关概念。

1.Fine-tuning (微调)

有些人认为微调和训练没有区别,都是训练模型,但是微调是在原模型训练好的的基础上,做针对性的再训练。微调一般用额外的数据集,降低学习率让模型适应特定任务。

2.Transfer Learning (迁移学习)

迁移学习大意是让模型适应新的任务,这涉及模型的改进和再训练。可以把微调看作是迁移学习的一种。

相比微调,迁移学习很多时候并不需要训练原有模型,可以只训练一部分,或者给模型加1-2层后,用元模型的输出作为迁移学习的输入,训练额外添加部分即可。

3.Knowledge Distillation (知识蒸馏)

KD目标是用一个小模型去学习大模型的能力,在保证基线性能的前提下,降低模型的参数和复杂度。

4.Meta Learning (元学习)

Learning to Learning,就是学会学习,这个概念并不需要预训练模型。元学习是指模型学习各类任务数据,然后学会各类任务的共性,从而适应新的任务。

相关推荐
LinkTime_Cloud17 分钟前
谷歌引入 AI 反诈系统:利用语言模型分析潜在恶意网站
人工智能·语言模型·自然语言处理
张小九9922 分钟前
PyTorch的dataloader制作自定义数据集
人工智能·pytorch·python
Panesle24 分钟前
分布式异步强化学习框架训练32B大模型:INTELLECT-2
人工智能·分布式·深度学习·算法·大模型
zstar-_32 分钟前
FreeTex v0.2.0:功能升级/支持Mac
人工智能·python·macos·llm
于壮士hoho43 分钟前
DeepSeek | AI需求分析
人工智能·python·ai·需求分析·dash
蒙奇D索大1 小时前
【人工智能】自然语言编程革命:腾讯云CodeBuddy实战5步搭建客户管理系统,效率飙升90%
人工智能·python·django·云计算·腾讯云
AORO_BEIDOU1 小时前
遨游卫星电话与普通手机有什么区别?
人工智能·科技·5g·智能手机·信息与通信
lqjun08271 小时前
Focal Loss 原理详解及 PyTorch 代码实现
人工智能·pytorch·python
科技小E1 小时前
WebRTC技术EasyRTC嵌入式音视频通信SDK打造远程实时视频通话监控巡检解决方案
人工智能·音视频
风虎云龙科研服务器1 小时前
英伟达Blackwell架构重构未来:AI算力革命背后的技术逻辑与产业变革
人工智能·重构·架构