【NLP 48、大语言模型的神秘力量 —— ICL:in context learning】

目录

一、ICL的优势

1.传统做法

2.ICL做法

二、ICL的发展

三、ICL成因的两种看法

[1.meta learning](#1.meta learning)

[2.Bayesian Inference](#2.Bayesian Inference)

四、ICL要点

[① 语言模型的规模](#① 语言模型的规模)

[② 提示词prompt中提供的examples数量和顺序](#② 提示词prompt中提供的examples数量和顺序)

[③ 提示词prompt的形式(format)](#③ 提示词prompt的形式(format))

[五、fine-tune VS ICL](#五、fine-tune VS ICL)


不要抓着枯叶哭泣,你要等待初春的芽

------ 25.3.26

一、ICL的优势

1.传统做法

任务定义 ------> 建立标注规范 ------> 标注人员学习标注规范 ------> 标注人员进行标注 ------> 对标注结果进行审核 ------> 使用标注数据训练模型 ------> 模型验证效果 ------> 模型实际预测

2.ICL做法

任务定义 ------> 模型实际预测

ICL方法如果完全成熟,意味着fine-tune范式的终结


二、ICL的发展

关于ICL的成因,目前学术界没有被广泛认可的解释,只有若干假说和一些表现分析。

在GPT3的论文中,z-s【zero-shot】,o-s【one-shot】,f-s【few-shot】都属于ICL


chain-of-thought思维链属于ICL


GPT3给出参考:在输入中加入至少一个样本,能大幅提升ICL效果

对于一个较大的模型而言,给出一个例子就可以显著的提升ICL的效果,给出Few-shot,准确性还会有所提升

对于一个较弱的模型而言,给出多少例子都不会显著提升ICL的效果


fine-tune会伤害ICL能力


精巧的提示词prompt设计有可能超过os、fs,可以通过提示词的改写进一步提高ICL的能力


Magical word

不给出思维链,而是在输入时多加入一句提示词,需要模型一步步思考:Let's think step by step

模型就可以像思维链一样主动发出思考,最终输出正确的结果


ICL时输入错误样本,不一定影响准确率

我们发现,用随机标签替换正确标签只会略微影响性能,这一趋势在几乎整个过程中是一致的


ICL可以压倒先验知识


三、ICL成因的两种看法

1.meta learning

大模型能在内部训练小型网络

2.Bayesian Inference

模型任务可以看作一个贝叶斯一样的多条件概率的组合,pretrain、prompt、example三者条件概率的组合,三者皆对于最终概率有影响


四、ICL要点

① 语言模型的规模

语言模型需要达到一定的规模

② 提示词prompt中提供的examples数量和顺序

给出的示例样本的数量和顺序也会影响模型效果的好坏

③ 提示词prompt的形式(format)

提示词的格式也十分重要,好的模型会根据你给出的格式回答你的问题


五、fine-tune VS ICL

相关推荐
新智元2 分钟前
全球 AI 视频大战升级!「中国版 Sora」Vidu Q2 参考生月底发布,能力对标 Sora 2
人工智能·openai
新智元15 分钟前
刚刚,Figure 03 惊天登场!四年狂造 10 万台,人类保姆集体失业
人工智能·openai
万猫学社18 分钟前
我们为什么需要Agent?
人工智能
共绩算力1 小时前
OpenAI Whisper 语音识别模型:技术与应用全面分析
人工智能·whisper·语音识别·共绩算力
工藤学编程1 小时前
零基础学AI大模型之Stream流式输出实战
人工智能
不良人龍木木1 小时前
机器学习-常用库
人工智能·机器学习
罗橙7号1 小时前
【pyTorch】关于PyTorch的高级索引机制理解
人工智能·pytorch·python
rengang662 小时前
09-随机森林:介绍集成学习中通过多决策树提升性能的算法
人工智能·算法·随机森林·机器学习·集成学习
zskj_qcxjqr2 小时前
数字大健康浪潮下:智能设备重构人力生态,传统技艺如何新生?
大数据·人工智能·科技·机器人
梦想画家2 小时前
Cohen‘s Kappa系数:衡量分类一致性的黄金标准及其在NLP中的应用
自然语言处理·分类·数据挖掘