深度学习概念(术语):Fine-tuning、Knowledge Distillation, etc

文章目录

  • 1.Fine-tuning (微调)
  • [2.Transfer Learning (迁移学习)](#2.Transfer Learning (迁移学习))
  • [3.Knowledge Distillation (知识蒸馏)](#3.Knowledge Distillation (知识蒸馏))
  • [4.Meta Learning (元学习)](#4.Meta Learning (元学习))

这里的相关概念都是基于已有预训练模型,就是模型本身已经训练好,有一定泛化能力。需要"再加工"满足别的任务需求。

进入后GPT时代,对模型的Fine-tuning也将成为趋势,借此机会,我来科普下相关概念。

1.Fine-tuning (微调)

有些人认为微调和训练没有区别,都是训练模型,但是微调是在原模型训练好的的基础上,做针对性的再训练。微调一般用额外的数据集,降低学习率让模型适应特定任务。

2.Transfer Learning (迁移学习)

迁移学习大意是让模型适应新的任务,这涉及模型的改进和再训练。可以把微调看作是迁移学习的一种。

相比微调,迁移学习很多时候并不需要训练原有模型,可以只训练一部分,或者给模型加1-2层后,用元模型的输出作为迁移学习的输入,训练额外添加部分即可。

3.Knowledge Distillation (知识蒸馏)

KD目标是用一个小模型去学习大模型的能力,在保证基线性能的前提下,降低模型的参数和复杂度。

4.Meta Learning (元学习)

Learning to Learning,就是学会学习,这个概念并不需要预训练模型。元学习是指模型学习各类任务数据,然后学会各类任务的共性,从而适应新的任务。

相关推荐
那个村的李富贵10 分钟前
昇腾CANN跨行业实战:五大新领域AI落地案例深度解析
人工智能·aigc·cann
集简云-软件连接神器13 分钟前
技术实战:集简云语聚AI实现小红书私信接入AI大模型全流程解析
人工智能·小红书·ai客服
松☆13 分钟前
深入理解CANN:面向AI加速的异构计算架构
人工智能·架构
rainbow72424413 分钟前
无基础学AI的入门核心,从基础工具和理论开始学
人工智能
子榆.18 分钟前
CANN 与主流 AI 框架集成:从 PyTorch/TensorFlow 到高效推理的无缝迁移指南
人工智能·pytorch·tensorflow
七月稻草人19 分钟前
CANN生态ops-nn:AIGC的神经网络算子加速内核
人工智能·神经网络·aigc
2501_9248787319 分钟前
数据智能驱动进化:AdAgent 多触点归因与自我学习机制详解
人工智能·逻辑回归·动态规划
芷栀夏21 分钟前
CANN开源实战:基于DrissionPage构建企业级网页自动化与数据采集系统
运维·人工智能·开源·自动化·cann
物联网APP开发从业者21 分钟前
2026年AI智能软硬件开发领域十大权威认证机构深度剖析
人工智能
MSTcheng.26 分钟前
构建自定义算子库:基于ops-nn和aclnn两阶段模式的创新指南
人工智能·cann