深度学习概念(术语):Fine-tuning、Knowledge Distillation, etc

文章目录

  • 1.Fine-tuning (微调)
  • [2.Transfer Learning (迁移学习)](#2.Transfer Learning (迁移学习))
  • [3.Knowledge Distillation (知识蒸馏)](#3.Knowledge Distillation (知识蒸馏))
  • [4.Meta Learning (元学习)](#4.Meta Learning (元学习))

这里的相关概念都是基于已有预训练模型,就是模型本身已经训练好,有一定泛化能力。需要"再加工"满足别的任务需求。

进入后GPT时代,对模型的Fine-tuning也将成为趋势,借此机会,我来科普下相关概念。

1.Fine-tuning (微调)

有些人认为微调和训练没有区别,都是训练模型,但是微调是在原模型训练好的的基础上,做针对性的再训练。微调一般用额外的数据集,降低学习率让模型适应特定任务。

2.Transfer Learning (迁移学习)

迁移学习大意是让模型适应新的任务,这涉及模型的改进和再训练。可以把微调看作是迁移学习的一种。

相比微调,迁移学习很多时候并不需要训练原有模型,可以只训练一部分,或者给模型加1-2层后,用元模型的输出作为迁移学习的输入,训练额外添加部分即可。

3.Knowledge Distillation (知识蒸馏)

KD目标是用一个小模型去学习大模型的能力,在保证基线性能的前提下,降低模型的参数和复杂度。

4.Meta Learning (元学习)

Learning to Learning,就是学会学习,这个概念并不需要预训练模型。元学习是指模型学习各类任务数据,然后学会各类任务的共性,从而适应新的任务。

相关推荐
Rubin智造社3 小时前
安全先行·自主编程|Claude Code Opus 4.7深度解读:AI开发进入合规量产时代
人工智能·anthropic·claude opus 4.7·mythos preview·xhigh努力等级·/ultrareview命令·自主开发ai
xinlianyq3 小时前
全球 AI 芯片格局生变:英伟达主导训练,国产算力崛起推理
人工智能
ShineWinsu4 小时前
AI训练硬件指南:GPU算力梯队与任务匹配框架
人工智能
范桂飓4 小时前
精选 Skills 清单
人工智能
码农的日常搅屎棍4 小时前
AIAgent开发新选择:OpenHarness极简入门指南
人工智能
AC赳赳老秦4 小时前
OpenClaw生成博客封面图+标题,适配CSDN视觉搜索,提升点击量
运维·人工智能·python·自动化·php·deepseek·openclaw
萝卜小白4 小时前
算法实习Day04-MinerU2.5-pro
人工智能·算法·机器学习
geneculture4 小时前
从人际间性到人机间性:进入人机互助新时代——兼论融智学视域下人类认知第二次大飞跃的理论奠基与实践场域
人工智能·融智学的重要应用·哲学与科学统一性·融智时代(杂志)·人际间性·人机间性·人际间文性
东方品牌观察4 小时前
观澜社张庆解析AI:便利与挑战并存
人工智能
w_t_y_y4 小时前
Agent 开发框架(一)有哪些框架&&A2A协议
人工智能