OpenAI
OpenAI 是一家知名的人工智能研究组织,总部位于美国旧金山。
成立时间与背景:2015 年 12 月 8 日成立,由山姆・奥特曼(Sam Altman)、伊隆・马斯克(Elon Musk)等多位创始人共同创立,旨在开发 "安全且有益" 的通用人工智能(AGI)。
公司结构:由非营利性基金会 OpenAI Inc 和营利性公司 OpenAI LP 组成。
关键人物:布雷特・泰勒(Bret Taylor)为董事长,山姆・奥特曼为 CEO,格雷格・布罗克曼(Greg Brockman)为总裁。
主要产品:开发了 GPT 系列大语言模型,如 GPT-1、GPT-2、GPT-3、GPT-4 等;还有文本生成图像模型 DALL-E 系列、文本生成视频模型 Sora 系列等。
ChatGPT
ChatGPT 是 OpenAI 研发的聊天机器人程序,于 2022 年 11 月 30 日发布。
技术原理:基于 GPT-3.5 系列模型微调,采用 Transformer 神经网络架构,运用人类反馈强化学习(RLHF)技术训练。通过连接大量包含真实世界对话的语料库进行训练,能根据聊天上下文互动,还可按道德准则拒绝恶意提问。
功能特点:能够生成回答、与人聊天交流,还可完成撰写论文、邮件、脚本、翻译、代码等任务。它对自然语言有较好的理解能力,生成的回复具有高可用性、强自知性以及弱毒害性等特点。
发展历程:发布后迅速走红,上线 5 天吸引超 100 万用户,2023 年 1 月末拥有 1 亿月活跃用户,成为当时增长速度最快的消费级应用。后续 OpenAI 不断为其增加新功能,如 2025 年开放搜索功能,免费版和付费版陆续支持不同智能水平的 GPT-5 进行对话等。
影响:ChatGPT 的面世炒热了 AIGC 概念,促使多家科技公司推出同类产品,如 Bard、Ernie Bot 等,推动了人工智能领域的发展,同时也引发了关于虚假信息传播、岗位替代等方面的争议与讨论。
LLMs
大语言模型(LLMs,Large Language Models)的发展历程是一部人工智能技术不断演进与突破的历史,
早期探索阶段(20 世纪 50 年代 - 2010 年代初)
基于规则的语言模型:20 世纪 50 年代,随着计算机科学的兴起,自然语言处理(NLP)领域开始探索利用计算机处理人类语言。早期的方法主要基于规则,语言学家制定一系列语法和语义规则,计算机程序依据这些规则解析和生成文本。然而,这种方法面对复杂多变的自然语言时,表现出极大的局限性,难以处理大规模、真实场景下的语言任务。
统计语言模型:20 世纪 80 年代末到 90 年代,统计语言模型逐渐兴起。这类模型基于概率统计理论,通过分析大量文本数据,学习语言的统计规律,如词与词之间的共现概率。典型的统计语言模型是 n - gram 模型,它根据前 n - 1 个词预测下一个词的概率。虽然统计语言模型在一些任务上取得了一定进展,但它缺乏对语言深层次语义的理解,且数据稀疏问题严重。
神经网络引入阶段(2010 年代初 - 2017 年)
神经网络语言模型:随着深度学习的发展,神经网络被引入语言模型领域。2013 年,谷歌的 Tomas Mikolov 等人提出了 Word2Vec,它通过神经网络将词映射到低维向量空间,使得语义相近的词在向量空间中距离较近,为语言模型的发展开辟了新的道路。此后,许多基于神经网络的语言模型相继出现,如循环神经网络(RNN)及其变体长短期记忆网络(LSTM)和门控循环单元(GRU)。这些模型能够处理序列数据,捕捉语言中的长期依赖关系,在语言建模任务上取得了显著的性能提升。
预训练语言模型的萌芽:2015 年,Facebook 的研究人员提出了 FastText,它不仅考虑单个词,还考虑词的子结构,在处理形态丰富的语言和罕见词时表现出色。同年,OpenAI 发布了生成式对抗网络(GAN)的语言版本 ------Generative Adversarial Text-to-Image Synthesis,虽然它主要用于图像生成,但其中的生成器概念对后来的语言生成模型产生了启发。2017 年,谷歌大脑团队在论文《Attention Is All You Need》中提出了 Transformer 架构,该架构引入了自注意力机制(Self - Attention),能够并行处理序列中的每个位置,有效解决了 RNN 在处理长序列时的梯度消失和梯度爆炸问题,并且能够更好地捕捉长距离依赖关系,为后续大语言模型的发展奠定了坚实的基础。
大语言模型兴起阶段(2017 年 - 至今)
GPT 系列:2018 年,OpenAI 推出了生成式预训练变换器(Generative Pretrained Transformer,GPT)。GPT 采用了 Transformer 的解码器架构,通过在大规模无监督文本数据上进行预训练,学习到语言的通用特征。然后,针对具体的下游任务(如文本分类、问答等),使用少量有监督数据进行微调,在多个自然语言处理任务上取得了优异的成绩。2019 年,GPT - 2 发布,它进一步扩大了模型规模和训练数据量,展现出强大的语言生成能力,甚至可以生成连贯的长篇文章。2020 年,GPT - 3 问世,其参数规模达到了 1750 亿,在零样本(zero - shot)、少样本(few - shot)学习任务上表现出色,引发了广泛关注和研究。2023 年,GPT - 4 发布,相比 GPT - 3,它在多种任务上性能显著提升,对复杂指令的理解和执行能力更强,并且具备了一定的多模态处理能力。
BERT 及其衍生模型:2018 年,谷歌发布了双向编码器表示来自变换器(Bidirectional Encoder Representations from Transformers,BERT)。与 GPT 不同,BERT 采用了 Transformer 的编码器架构,并且在预训练阶段使用了遮蔽语言模型(Masked Language Model)和下一句预测(Next Sentence Prediction)两种任务,使得模型能够同时捕捉文本的前向和后向信息,对语言的理解更加深入。BERT 在多个自然语言处理任务上取得了当时的最优成绩,推动了预训练语言模型的广泛应用。此后,基于 BERT 的各种改进模型不断涌现,如 ERNIE(百度)、RoBERTa(Facebook)等,它们在不同方面对 BERT 进行了优化和扩展。
其他大语言模型:除了 GPT 和 BERT 系列,还有许多其他机构和公司也推出了自己的大语言模型。例如,Meta(原 Facebook)的 LLaMA 模型,以其相对较小的模型规模和开源特性,吸引了众多研究人员的关注和二次开发;华为的盘古大模型,在自然语言处理以及其他领域都有广泛的应用探索;阿里的通义千问、字节跳动的云雀模型等,也在不断推动大语言模型技术的发展和应用。
定义1:是一种由包含数百亿以上参数的深度神经网络构建的语言模型,通常使用自监督学习方法,通过大量无标注文本进行训练。
定义2:任意的在大规模数据上训练并且可以适配(例如,微调)广泛下游任务的模型。
大模型的特点
参数规模巨大
知识承载丰富:大模型包含数以百亿甚至千亿计的参数,例如 GPT - 3 拥有 1750 亿参数。众多参数如同庞大知识储备库,使模型能学习海量数据中的复杂模式、语义关系和语言结构,涵盖不同领域知识与语言表达变化。
强大的泛化能力:大规模参数赋予模型对未曾见过数据的处理能力,可有效应对多种自然语言处理任务。在不同领域文本分类任务中,无需针对每个任务大量调整参数,大模型依靠预训练积累的知识即可取得较好效果。
数据依赖性强
海量数据驱动:需在海量数据上训练,数据类型丰富,含文本、图像、音频等,来源广泛如网页、书籍、社交媒体。例如训练通用大语言模型可能用数 TB 文本数据,确保模型学习到全面语言模式与知识。
数据质量影响大:数据质量直接关乎模型性能。高质量、多样化数据助模型学习准确语言表达与知识,低质量数据如含错误、噪声或偏见数据,会使模型生成错误或有偏见输出。
卓越的语言理解与生成能力
深度语义理解:大模型能理解文本语法结构、语义关系和上下文语境,处理复杂语言现象。如理解 "他的话像一把双刃剑,有利也有弊" 中 "双刃剑" 比喻义及整句含义。在阅读理解任务中,可依据文本回答复杂问题。
自然流畅生成:可生成连贯、自然且逻辑合理文本。撰写文章时,能按要求生成结构完整、内容丰富、语言流畅的文章;在对话场景中,能依据上下文生成合适回复,维持对话连贯性。
通用性与适应性高
任务通用性:不局限于特定领域或任务,可迁移至多种自然语言处理任务,如文本分类、情感分析、机器翻译、问答系统等,无需为每个任务设计独特模型架构。
场景适应性:通过微调或提示工程适应不同应用场景与用户需求。微调是在预训练模型基础上用特定领域少量标注数据进一步训练,如用医学文本微调模型用于医学文献分类;提示工程则通过设计输入提示引导模型生成期望输出,如创意写作时引导生成特定风格故事。
涌现能力
超出预期表现:在达到一定规模和训练程度后,大模型展现出预训练中未特意学习的能力,即涌现能力。如复杂推理、理解隐喻和解决新问题能力,这些能力在小规模模型中不存在,是大模型规模增长带来质变。
拓展应用边界:涌现能力拓展了大模型应用范围,使其在科学研究、复杂决策支持等领域发挥作用。如辅助科研人员进行数据分析、假设生成,为复杂决策提供思路与建议。
计算资源需求高
硬件要求苛刻:训练和运行大模型需强大计算资源,如高端 GPU 集群。因模型参数多、计算量大,普通硬件无法满足其运算需求,大规模并行计算能力的硬件才能加速训练过程。
高昂成本消耗:不仅硬件购置成本高,运行过程中的电力消耗、维护成本也高昂。训练一个大型模型可能需耗费大量资金,限制了部分组织和个人开展相关研究与应用开发。
Transformer
Transformer 是一种基于自注意力机制(Self-Attention)的深度学习架构,最初在 2017 年的论文《Attention Is All You Need》中提出 ,用于解决机器翻译任务中的长期依赖问题,并在多个自然语言处理(NLP)任务中取得了卓越的效果。随后,它的影响力扩展到计算机视觉、语音处理等众多领域。
架构特点
自注意力机制核心:Transformer 架构的核心创新在于自注意力机制。与传统的循环神经网络(RNN)或卷积神经网络(CNN)不同,自注意力机制允许模型在处理序列中的每个位置时,同时关注序列中的其他所有位置,从而有效捕捉长距离依赖关系。具体来说,自注意力机制通过计算输入序列中每个元素与其他元素之间的相关性得分,生成注意力分布,再根据这个分布对输入进行加权求和,得到每个位置的上下文表示。这种机制使得模型能够并行处理序列中的所有元素,大大提高了计算效率,同时也能更好地捕捉序列中的语义关系。
并行计算能力:由于自注意力机制的引入,Transformer 可以并行计算序列中各个位置的表示,而不像 RNN 那样需要顺序处理每个时间步。这使得 Transformer 在处理长序列数据时,能够显著减少计算时间,提高训练和推理速度。这种并行计算能力对于处理大规模数据集和复杂任务非常关键,使得 Transformer 在实际应用中具有更高的效率和可扩展性。
多层架构堆叠:Transformer 通常由多个相同的层堆叠而成,每个层包含多头自注意力机制(Multi-Head Attention)和前馈神经网络(Feed-Forward Neural Network)两个主要组件。这种多层架构允许模型逐步学习到输入数据的更高级、更抽象的表示。通过堆叠多层,Transformer 能够捕捉到数据中复杂的模式和语义信息,从而在各种任务中表现出强大的性能。
架构组成
编码器(Encoder):负责将输入序列转换为一系列连续的表示向量。编码器由多个相同的编码器层组成,每个编码器层包含两个子层:
多头自注意力层:将输入向量分别通过多个不同的线性变换,得到查询(Query)、键(Key)和值(Value)矩阵,然后在这些矩阵上计算自注意力分数,并通过 softmax 函数进行归一化,得到注意力分布。最后,将注意力分布与值矩阵相乘并求和,得到多头自注意力的输出。多个头的并行计算可以捕捉到不同方面的语义信息,增加模型的表示能力。
前馈神经网络层:对多头自注意力的输出进行进一步处理。这是一个全连接神经网络,包含两个线性层和一个非线性激活函数(通常是 ReLU)。前馈神经网络层对每个位置的表示进行独立的变换,进一步提取特征。
解码器(Decoder):用于生成输出序列。解码器同样由多个解码器层组成,每个解码器层包含三个子层:
掩码多头自注意力层:与编码器中的多头自注意力层类似,但在计算注意力分数时,会使用掩码(Mask)机制,防止解码器在生成当前位置时看到未来位置的信息。这样可以确保解码器按照顺序依次生成输出序列。
编码器 - 解码器注意力层:该层将编码器的输出与掩码多头自注意力层的输出相结合,使得解码器能够关注到输入序列中的相关信息,从而生成与输入相关的输出。
前馈神经网络层:与编码器中的前馈神经网络层结构相同,对编码器 - 解码器注意力层的输出进行进一步处理,生成最终的输出表示。
位置编码(Positional Encoding):由于 Transformer 本身不包含序列顺序信息,为了让模型能够区分不同位置的元素,引入了位置编码。位置编码是将位置信息编码为向量,并与输入嵌入向量相加,从而为模型提供序列中的位置信息。位置编码通常使用正弦和余弦函数来生成,这种方式可以使模型在不同位置之间学习到相对的位置关系。
应用领域
自然语言处理(NLP):Transformer 在 NLP 领域取得了巨大成功,几乎成为了各种 NLP 任务的主流架构。如机器翻译、文本生成(如 GPT 系列模型)、问答系统、文本分类、情感分析等。在这些任务中,Transformer 能够有效地捕捉文本中的语义信息和长距离依赖关系,从而提高任务的性能。
计算机视觉(CV):Transformer 也逐渐在计算机视觉领域得到广泛应用。传统的卷积神经网络(CNN)在处理图像时,主要关注局部区域的特征。而 Transformer 的自注意力机制可以全局地捕捉图像中不同区域之间的关系,对于处理图像中的长距离依赖和复杂的空间关系具有优势。例如,Vision Transformer(ViT)将图像分割成多个小块,并将其视为序列输入到 Transformer 中,在图像分类等任务中取得了很好的效果。
语音处理:在语音识别、语音合成等语音处理任务中,Transformer 也展现出了良好的性能。通过将语音信号转换为序列数据,利用 Transformer 的自注意力机制可以更好地捕捉语音信号中的时间依赖关系和上下文信息,提高语音处理的准确性。
现有大模型介绍
GPT 系列
GPT 系列:是 OpenAI 开发的一系列基于 Transformer 架构的自回归语言模型。从 GPT 到 GPT-4,模型规模、性能等不断提升。GPT 专注于语言建模;GPT-2 零样本学习能力增强;GPT-3 参数量达 1.75 万亿,零样本学习和推理能力突出;GPT-3.5 中的 ChatGPT 引入强化学习与人类反馈,对话体验大幅提升;GPT-4 支持多模态,逻辑推理等能力更强,训练更注重安全性。
谷歌 Gemini
谷歌 Gemini:是 Google 开发的多模态大型语言模型。通过海量多模态数据训练,能理解和生成文本、图像、代码等。Gemini 3 系列有 Pro、Ultra、Nano 等版本,分别适用于日常使用、复杂任务和设备端运行等。其基于 Transformer 架构,采用多模态融合技术,可应用于客户服务、内容创作、编程辅助等场景。
微软 Copilot
微软 Copilot:是微软推出的人工智能助手,整合在微软的多种产品中,如 Windows 系统、Office 办公软件等。它能根据用户在不同软件中的操作场景,提供相应的智能辅助功能,如在 Word 中辅助撰写文档、在 Excel 中协助数据分析等,帮助用户提高工作效率,基于微软的云计算资源和人工智能技术,为用户提供便捷的智能办公体验。
Meta 的 LLaMA:是 Meta 推出的大规模预训练语言模型系列,由 FAIR 开发,首个版本于 2023 年发布。基于 Transformer 架构,强调开放性和灵活性,开源且有不同规模版本,参数从 7 亿到 130 亿不等,可用于文本生成、问答系统、机器翻译等多种自然语言处理任务。
Claude 系列
Claude 系列:是 Anthropic 公司开发的大型语言模型系列。产品矩阵围绕 "安全优先、能力均衡、场景聚焦" 构建,基础模型有 Claude Opus、Claude Sonnet、Claude Haiku 等版本,分别适用于复杂任务、企业日常办公、简单查询等场景。还提供多种客户端模式和平台版本,并有专为开发者设计的 Claude Code 工具。
XAI 的 Grok
XAI 的 Grok:是埃隆・马斯克旗下 xAI 公司开发的 AI 对话助手,于 2023 年 11 月首次亮相。具备实时网络搜索、深度推理、图像生成等功能,以独特的幽默风格和实时信息获取能力著称。支持多模态理解,与社交平台 X 深度集成,提供多种推理模式,可用于实时新闻追踪、代码开发、商业数据分析等多种场景。
Mistral AI
Mistral AI:是一家法国人工智能初创公司,2023 年成立于巴黎。其拥有开源和专有 AI 模型,如 Mistral 7B、Mixtral 8x7B 等。公司发展迅速,截至 2025 年估值已超过 14 亿美元,旨在开发高效的大语言模型,为自然语言处理等领域提供技术支持。