李宏毅生成式AI课程笔记(持续更新

01 ChatGPT在做的事情


02 预训练(Pre-train)

ChatGPT

G-Generative

P-Pre-trained

T-Transformer

GPT3 ----> InstructGPT(经过预训练的GPT3)

生成式学习的两种策略

我们在使用ChatGPT的时候会注意到,网站上的回答几乎是一个字一个字给出来的,这里就是生成式学习的两种策略:

"逐个击破"(文字)与"一次到位"(影像)

三种结构数据:文本(由token构成)、影像(像素点)、语音(采样频率)

  • 中文的token -----> 字
  • 英文的token -----> word piece,如unbreakable ----> un break able

Finetuning 与 Prompting

Adapter,不修改模型本身参数,插入一个额外的模组


上图包括了几种Adapter:Bitfit、Houlsby、AdapterBias、Prefix-tuning、LoRA

思维链

Chain of Thought(COT) Prompting

思维链可以大大提高模型的准确率

上图是在要求大语言模型按步骤输出答案和直接要求其输出答案的准确率区别。

03 大模型+大资料

大模型的顿悟

在某个参数量之前,增加参数量不会提高模型的正确率,当提高参数规模到一定程度,会出现准确率突然变高的情况(如下图)

同理,也只有在参数量达到一定程度的时候,思维链和微调才能起作用,如下图:

模型是否知道自己在胡说八道,在参数量足够大的时候,模型才拥有这个能力,如下图:

模型与资料的平衡

足够大的时候,模型才拥有这个能力,如下图:

外链图片转存中...(img-MTYfwvWJ-1697377074486)

模型与资料的平衡

相关推荐
小关会打代码1 分钟前
计算机视觉进阶教学之颜色识别
人工智能·计算机视觉
IT小哥哥呀7 分钟前
基于深度学习的数字图像分类实验与分析
人工智能·深度学习·分类
机器之心31 分钟前
VAE时代终结?谢赛宁团队「RAE」登场,表征自编码器或成DiT训练新基石
人工智能·openai
机器之心33 分钟前
Sutton判定「LLM是死胡同」后,新访谈揭示AI困境
人工智能·openai
大模型真好玩36 分钟前
低代码Agent开发框架使用指南(四)—Coze大模型和插件参数配置最佳实践
人工智能·agent·coze
jerryinwuhan36 分钟前
基于大语言模型(LLM)的城市时间、空间与情感交织分析:面向智能城市的情感动态预测与空间优化
人工智能·语言模型·自然语言处理
落雪财神意1 小时前
股指10月想法
大数据·人工智能·金融·区块链·期股
中杯可乐多加冰1 小时前
无代码开发实践|基于业务流能力快速开发市场监管系统,实现投诉处理快速响应
人工智能·低代码
郭庆汝1 小时前
自然语言处理笔记
笔记·自然语言处理·easyui
渣渣盟1 小时前
解密NLP:从入门到精通
人工智能·python·nlp