大语言模型训练的目标(不同的结构和阶段)

大语言模型(Large Language Models, LLMs)的训练目标是其能力的核心来源,决定了模型如何从海量数据中学习语言规律和知识。以下是其训练目标的分类和详细说明:


一、预训练阶段的核心目标

预训练是LLMs的基础阶段,通过无监督或自监督任务学习通用语言表示。常见目标包括:

1. 自回归语言建模(Autoregressive Language Modeling)
  • 目标:预测下一个词(Token),基于前文生成连贯的序列。
  • 数学形式 :最大化序列的联合概率:
    P ( x 1 , x 2 , . . . , x n ) = ∏ t = 1 n P ( x t ∣ x < t ) P(x_1, x_2, ..., x_n) = \prod_{t=1}^n P(x_t | x_{<t}) P(x1,x2,...,xn)=t=1∏nP(xt∣x<t)
  • 特点
    • 单向上下文:仅利用左侧(或右侧)的上下文信息。
    • 生成能力:擅长文本生成任务(如GPT系列)。
  • 典型模型:GPT-3、LLaMA、PaLM。
2. 自编码语言建模(Autoencoding Language Modeling)
  • 目标:通过掩码(Mask)随机遮盖输入的部分词,模型预测被遮盖的词。
  • 数学形式 :最大化被遮盖词的条件概率:
    P ( x masked ∣ x unmasked ) P(x_{\text{masked}} | x_{\text{unmasked}}) P(xmasked∣xunmasked)
  • 特点
    • 双向上下文:利用全局上下文信息(如BERT)。
    • 理解能力:擅长文本理解任务(分类、问答)。
  • 典型模型:BERT、RoBERTa。
3. 混合目标(Hybrid Objectives)
  • 目标:结合自回归和自编码,或引入其他辅助任务。
  • 常见形式
    • Prefix-LM:前缀部分双向编码,后缀部分自回归生成(如UniLM)。
    • Span Corruption:遮盖连续词块并生成(如T5)。
    • UL2:统一不同训练目标(掩码、前缀、因果解码)。
  • 特点:灵活适应多任务需求,但训练复杂度高。
4. 对比学习(Contrastive Learning)
  • 目标:通过对比正样本和负样本,学习文本表示的区分性。
  • 常见形式
    • SimCSE:通过句子对增强构建对比任务。
    • InfoNCE Loss:拉近相似样本,推开不相似样本。
  • 特点:提升语义相似性建模能力。

二、微调阶段的目标

在预训练后,模型通过特定任务的数据进一步优化:

1. 指令微调(Instruction Tuning)
  • 目标:让模型理解并遵循人类指令。
  • 方法
    • 使用指令-输出对(如"写一首诗→生成诗歌")进行监督训练。
    • 损失函数:最小化生成结果与参考答案的交叉熵。
  • 典型应用:Alpaca、Vicuna、ChatGPT的SFT阶段。
2. 对齐目标(Alignment Objectives)
  • 目标:使模型输出符合人类价值观(安全、无害、有用)。
  • 方法
    • RLHF(基于人类反馈的强化学习):通过奖励模型(Reward Model)优化策略。
    • DPO(直接偏好优化):直接利用偏好数据调整模型输出分布。
  • 典型应用:ChatGPT、Claude。
3. 多任务微调
  • 目标:同时优化多个任务(如翻译、摘要、问答)。
  • 方法:混合多任务数据,通过任务前缀(Task Prefix)区分任务类型。
  • 典型模型:T5、FLAN-T5。

三、训练目标的演进趋势

  1. 从单一目标到统一框架

    • 早期模型(如GPT、BERT)使用单一目标,而现代模型(如T5、UL2)趋向统一框架,适应多任务需求。
  2. 从语言建模到多模态学习

    • 目标扩展至跨模态对齐(如文本-图像对训练:CLIP、Flamingo)。
  3. 从静态训练到动态反馈

    • 引入人类反馈(RLHF)、在线学习(Online Learning)等动态优化机制。

四、不同训练目标的优缺点

训练目标 优点 缺点 适用场景
自回归语言建模 生成能力强,结构简单 无法利用双向上下文 文本生成(GPT)
自编码语言建模 理解能力强,支持双向上下文 生成能力较弱 文本理解(BERT)
对比学习 语义表示区分度高 依赖高质量对比数据 语义相似性任务(SimCSE)
指令微调 提升指令遵循能力 需要大量标注指令数据 对话系统(ChatGPT)
RLHF 输出符合人类偏好 训练复杂,成本高 对齐任务(Claude)

五、总结

大语言模型的训练目标设计是其能力的核心驱动力:

  • 预训练目标决定模型的基础能力(生成、理解、多模态)。
  • 微调目标决定模型的领域适应性(如医疗、法律)。
  • 对齐目标决定模型的安全性和价值观。

未来趋势将更注重目标统一性 (如UL2)、多模态扩展 (如GPT-4V),以及低成本对齐方法(如DPO)。理解这些目标,有助于针对实际需求选择或设计合适的模型架构。

相关推荐
Jelena1577958579210 分钟前
爬虫结合 t_nlp_word 文本语言词法分析接口:开启数据挖掘与分析的新篇章
爬虫·自然语言处理·word
富 贵 儿 ¥11 分钟前
深度学习、宽度学习、持续学习与终身学习:全面解析与其在大模型方面的应用
人工智能·深度学习·学习
佛州小李哥12 分钟前
我代表中国受邀在亚马逊云科技全球云计算大会re:Invent中技术演讲
运维·人工智能·科技·云计算·aws·云安全·亚马逊云科技
今天炼丹了吗19 分钟前
RT-DETR融合YOLOv12中的R-ELAN结构
人工智能·深度学习·计算机视觉
视觉语言导航22 分钟前
微软具身智能感知交互多面手!Magma:基于基础模型的多模态AI智能体
人工智能·深度学习·具身智能
CITY_OF_MO_GY31 分钟前
RAG组件:向量数据库(Milvus)
人工智能·milvus
东临碣石8238 分钟前
【AI论文】MedVLM-R1:通过强化学习激励视觉语言模型(VLMs)的医疗推理能力
人工智能·语言模型·自然语言处理
飞30039 分钟前
淘天集团算法岗-计算机视觉(T-Star Lab)内推
人工智能·算法·计算机视觉·业界资讯
正宗咸豆花1 小时前
【PromptCoder + Cursor】利用AI智能编辑器快速实现设计稿
前端·人工智能·编辑器·prompt·提示词
CP-DD1 小时前
Pycharm 远程执行无法显示 cv2.imshow() 的原因分析及解决方案
人工智能·opencv·计算机视觉