李宏毅生成式AI课程笔记(持续更新

01 ChatGPT在做的事情


02 预训练(Pre-train)

ChatGPT

G-Generative

P-Pre-trained

T-Transformer

GPT3 ----> InstructGPT(经过预训练的GPT3)

生成式学习的两种策略

我们在使用ChatGPT的时候会注意到,网站上的回答几乎是一个字一个字给出来的,这里就是生成式学习的两种策略:

"逐个击破"(文字)与"一次到位"(影像)

三种结构数据:文本(由token构成)、影像(像素点)、语音(采样频率)

  • 中文的token -----> 字
  • 英文的token -----> word piece,如unbreakable ----> un break able

Finetuning 与 Prompting

Adapter,不修改模型本身参数,插入一个额外的模组


上图包括了几种Adapter:Bitfit、Houlsby、AdapterBias、Prefix-tuning、LoRA

思维链

Chain of Thought(COT) Prompting

思维链可以大大提高模型的准确率

上图是在要求大语言模型按步骤输出答案和直接要求其输出答案的准确率区别。

03 大模型+大资料

大模型的顿悟

在某个参数量之前,增加参数量不会提高模型的正确率,当提高参数规模到一定程度,会出现准确率突然变高的情况(如下图)

同理,也只有在参数量达到一定程度的时候,思维链和微调才能起作用,如下图:

模型是否知道自己在胡说八道,在参数量足够大的时候,模型才拥有这个能力,如下图:

模型与资料的平衡

足够大的时候,模型才拥有这个能力,如下图:

外链图片转存中...(img-MTYfwvWJ-1697377074486)

模型与资料的平衡

相关推荐
人工智能训练4 小时前
【极速部署】Ubuntu24.04+CUDA13.0 玩转 VLLM 0.15.0:预编译 Wheel 包 GPU 版安装全攻略
运维·前端·人工智能·python·ai编程·cuda·vllm
源于花海4 小时前
迁移学习相关的期刊和会议
人工智能·机器学习·迁移学习·期刊会议
不会代码的小猴5 小时前
Linux环境编程第六天笔记--system-V IPC
linux·笔记
DisonTangor6 小时前
DeepSeek-OCR 2: 视觉因果流
人工智能·开源·aigc·ocr·deepseek
乌恩大侠6 小时前
【笔记】USRP 5G 和 6G 参考架构
笔记·5g
薛定谔的猫19826 小时前
二十一、基于 Hugging Face Transformers 实现中文情感分析情感分析
人工智能·自然语言处理·大模型 训练 调优
发哥来了6 小时前
《AI视频生成技术原理剖析及金管道·图生视频的应用实践》
人工智能
biuyyyxxx6 小时前
Python自动化办公学习笔记(一) 工具安装&教程
笔记·python·学习·自动化
数智联AI团队6 小时前
AI搜索引领开源大模型新浪潮,技术创新重塑信息检索未来格局
人工智能·开源
不懒不懒6 小时前
【线性 VS 逻辑回归:一篇讲透两种核心回归模型】
人工智能·机器学习