Pretrain-finetune、Prompting、Instruct-tuning训练方法的区别

来自:【多模态】28、LLaVA 第一版 | Visual Instruction Tuning 多模态模型的指令微调_多模态指令跟随数据-CSDN博客

几种模型训练方法的区别:

1、Pretrain-finetune:先在大量数据集上做预训练,然后针对某个子任务做 finetune

2、Prompting:

定义: Prompting 是指向模型提供一个或一系列的提示(prompts),通常是用自然语言编写的,这些提示旨在激发模型给出特定类型的回应。这不涉及改变模型的内部权重或结构,而是利用模型已经学习的知识和能力。

使用场景: Prompting 常用于零样本(zero-shot)或少样本(few-shot)学习场景,其中模型需要在没有大量特定任务数据的情况下执行任务。

例子: 例如,如果你想让一个语言模型生成诗歌,你可以给它一个提示,如"写一首关于春天的诗",模型就会基于这个提示生成文本。

3、Instruct-tuning:

定义: Instruct-tuning 是指对模型进行额外的训练(也称为微调),通常是在一个特定的任务上,使用一个特定的数据集,这个数据集包含了特定的指令和期望的行为。这个过程实际上会改变模型的权重,使其更好地理解和执行给定的指令。

使用场景: Instruct-tuning 通常用于提高模型对于特定指令的响应性和准确性,尤其是当模型在原始训练中没有充分学习如何处理这些指令时。

例子: 如果一个模型在处理复杂的自然语言指令时表现不佳,如"整理这份报告的要点",则可以通过 instruct-tuning 在包含类似任务的数据集上进一步训练模型,以改善其在该任务上的性能。

简而言之,prompting 是一种无需改变模型本身而利用模型现有能力的方法,而 instruct-tuning 是通过额外训练来改善模型对特定指令的响应。两者都是提高人工智能模型性能的有效方法,但它们的适用情况和目的有所不同。

相关推荐
知舟不叙23 分钟前
深度学习——基于PyTorch的MNIST手写数字识别详解
人工智能·pytorch·深度学习·手写数字识别
Jamence26 分钟前
多模态大语言模型arxiv论文略读(118)
论文阅读·人工智能·语言模型·自然语言处理·论文笔记
愚农搬码30 分钟前
LangChain 调用不同类型的多MCP服务
人工智能·后端
AI速译官38 分钟前
字节跳动推出视频生成新模型Seedance
人工智能
chenquan1 小时前
ArkFlow 流处理引擎 0.4.0-rc1 发布
人工智能·后端·github
Se7en2582 小时前
使用 Higress AI 网关代理 vLLM 推理服务
人工智能
AI大模型技术社2 小时前
PyTorch手撕CNN:可视化卷积过程+ResNet18训练代码详解
人工智能·神经网络
CSTechEi2 小时前
【IEEE/EI/Scopus检索】2025年第六届模式识别与数据挖掘国际会议 (PRDM 2025)
人工智能·数据挖掘·模式识别·ei学术会议
明明跟你说过3 小时前
FastChat 架构拆解:打造类 ChatGPT 私有化部署解决方案的基石
人工智能·语言模型·chatgpt·openai
Listennnn3 小时前
Text2SQL、Text2API基础
数据库·人工智能