随着ChatGPT的流行,AI大模型也成了新的基础设施,我们在深入学习理解这波新技术之前,有必要先理清一些基本的概念。
这篇文章主要讨论两个问题:
- AI大模型是什么?
- AI大模型能做什么?
AI大模型是什么?
从严谨的角度来说并没有"大模型"这样的概念,在学术上更常用的是基础模型(foundation model或者base model)。
维基百科中对"基础模型"的定义:基础模型是一种大型机器学习模型,通常在大量数据上进行大规模训练(通过自监督学习或者半监督学习),以使它可以适应各类下游任务。
我们可以看到基础模型有以下几个特点:
- 参数量大
- 数据量大
- 迁移学习能力强
AIGC,全称是Artifical Intelligence Generated Content,生成式人工智能。因为AIGC基本都是通过"大模型"的上下文学习、涌现和思维连等能力支撑实现的,所以我们也会经常听到"生成式人工智能大模型"的说法。
什么是"涌现"? 它是指在大模型领域,当模型突破某个规模时,性能显著提升,表现出让人惊艳、意想不到的能力。
什么是"思维链(Chain-of-thought)"?它指的是通过一系列有逻辑关系的思考步骤,形成一个完整的思考,进而得出答案的过程。
大模型的"大"是一个相对概念,是一个持续的过程,更大规模的训练数据需要模型具备更强的记忆、理解和表达能力。而为了拥有更强的记忆、理解和表达能力,模型需要更大的参数量,也就是更大的模型。
模型为什么会越来越大?内因是存储和算力的发展,外因是人类在知识量和共享度上的发展,互联网技术使得人类个体公开可查的学习资料快读膨胀。
大模型技术为什么会火呢?除了存储和计算能力的持续发展,还有几个必要条件:
- 通过涌现、思维链和上下文学习的能力,极大提升了模型的自然语言理解和生成的能力。
- 跨模态建模能力的发展,这让同一个模型能像人类一样同时理解和处理Excel、PPT、PDF、图像和视频等多种形式的数据。
- 生成式模型的交互方式,新的AI产品利用了人类的惰性,通过新的交互方式,大大提高了产品的渗透率。
AI大模型能做什么?
AI大模型可以很好的处理语言翻译、创意策划、文章创作和代码编写等任务。
AI大模型的限制:
- 时间限制,例如GPT 3.5只使用了2021年9月之前的数据进行训练,这样就无法评判之后的事实。
- 输入长度限制,不同的model会对可以处理的token长度有不同的限制。
- "幻觉"问题,大模型可能会一本正经的讲"林黛玉倒拔垂杨柳"的故事。
对于ChatGPT架构师,我们要如何设计基于大模型技术的架构呢?
AI大模型具有很强的理解、摘要总结和多轮对话的能力,但在数据时效性、输入长度和内容可信性等方面有缺点。
ChatGPT开放了联网和插件接口功能,已有的互联网应用可以通过调用OpenAI的API,将自己的应用放入ChatGPT的应用中心。
我们利用大模型平台先天具备的优异语言能力、意图识别能力和指令翻译能力,将互联网领域的各个能力接入其中,由AI大模型作为大脑,帮助各个应用互相对话,产生化学反应。
我们来看一些案例:
- 作为助理,可以安排日程、完成差旅机票酒店预订,或者根据会议相关资料和人数预定会议室,提前发放会议议程。
- 作为秘书,根据个人习惯,查询关注领域的最新消息,生成工作周报等。
- 作为伴侣,可以介入语音合成和语音识别插件,以及数字人插件,这样可以像一个真正的朋友一样和你进行视频对话。
通过这种方式,大模型系统平台可以成为强大的生产工具,擅长使用大模型平台的用户将极大的提升个人生产效率,和其他人拉开差距。
此文章为极客时间9月份Day01学习笔记,内容来自《AI大模型系统实战》课程。