深度学习概念(术语):Fine-tuning、Knowledge Distillation, etc

文章目录

  • 1.Fine-tuning (微调)
  • [2.Transfer Learning (迁移学习)](#2.Transfer Learning (迁移学习))
  • [3.Knowledge Distillation (知识蒸馏)](#3.Knowledge Distillation (知识蒸馏))
  • [4.Meta Learning (元学习)](#4.Meta Learning (元学习))

这里的相关概念都是基于已有预训练模型,就是模型本身已经训练好,有一定泛化能力。需要"再加工"满足别的任务需求。

进入后GPT时代,对模型的Fine-tuning也将成为趋势,借此机会,我来科普下相关概念。

1.Fine-tuning (微调)

有些人认为微调和训练没有区别,都是训练模型,但是微调是在原模型训练好的的基础上,做针对性的再训练。微调一般用额外的数据集,降低学习率让模型适应特定任务。

2.Transfer Learning (迁移学习)

迁移学习大意是让模型适应新的任务,这涉及模型的改进和再训练。可以把微调看作是迁移学习的一种。

相比微调,迁移学习很多时候并不需要训练原有模型,可以只训练一部分,或者给模型加1-2层后,用元模型的输出作为迁移学习的输入,训练额外添加部分即可。

3.Knowledge Distillation (知识蒸馏)

KD目标是用一个小模型去学习大模型的能力,在保证基线性能的前提下,降低模型的参数和复杂度。

4.Meta Learning (元学习)

Learning to Learning,就是学会学习,这个概念并不需要预训练模型。元学习是指模型学习各类任务数据,然后学会各类任务的共性,从而适应新的任务。

相关推荐
H3C-Navigator19 分钟前
【AI高性能网络解析】第一期:面向GPU算力纵向扩展的Scale-up网络技术研究
网络·人工智能·gpu算力·ai-native
Danceful_YJ32 分钟前
18.Kaggle竞赛--使用ResNet-50网络进行树叶分类
人工智能·pytorch·深度学习·卷积神经网络
点云SLAM1 小时前
TensorFlow 和PyTorch的全方位对比和选择建议
人工智能·pytorch·计算机视觉·tensorflow·深度学习框架·ai部署·ai环境平台
oil欧哟1 小时前
🧐 AI 批量检查数千份技术文档,如何实现高效文档纠错?
前端·人工智能·ai编程
lishaoan771 小时前
用TensorFlow进行逻辑回归(六)
人工智能·tensorflow·逻辑回归
Jamence1 小时前
多模态大语言模型arxiv论文略读(157)
论文阅读·人工智能·语言模型·自然语言处理·论文笔记
巴伦是只猫1 小时前
【深度学习笔记】2 浅层神经网络
笔记·深度学习·神经网络
DogDaoDao1 小时前
Rembg开源项目全面解析:从原理到实践应用
人工智能·深度学习·开源·github·图像分割·背景检测·rembg
汀、人工智能1 小时前
AI-Compass LLM训练框架生态:整合ms-swift、Unsloth、Megatron-LM等核心框架,涵盖全参数/PEFT训练与分布式优化
人工智能·分布式·sft·swift·大模型训练
ATM0061 小时前
开源AI Agent开发平台Dify源码剖析系列(二)
人工智能·开源·dify·源码剖析