语言大模型基础概念 一(先了解听说过的名词都是什么)

SFT(监督微调)和RLHF(基于人类反馈的强化学习)的区别

STF(Supervised Fine-Tuning)和RLHF(Reinforcement Learning from Human Feedback)是两种不同的模型训练方法,分别用于不同的阶段和目的。具体介绍参考SFT(监督微调)和RLHF(基于人类反馈的强化学习)的区别_sft和rlhf-CSDN博客

LoRA(Low-Rank Adaptation)

Lora(Low-Rank Adaptation)是一种新的模型微调技术。在预训练好的模型中引入并行的低秩矩阵,用于修正预训练模型的输出(有点像ResNet,增加新的参数用来生成预训练模型的残差)。具体介绍参考理解Lora微调只需一个公式-CSDN博客

语言大模型主体架构

参考

Decoder-Only、Encoder-Only、Encoder-Decoder 区别_decoder only-CSDN博客语言大模型知识点简介_prefix decoder-CSDN博客

  1. Decoder-Only 架构

描述: 仅包含解码器部分,没有编码器

应用: 通常用于生成任务 ,如语言模型和对话系统。

代表模型: GPT(Generative Pre-trained Transformer)

其他: prefix Decoder (输入为之前所有的输出,)和 causal Decoder(输入为上一时刻的输出,)。

  1. Encoder-Only 架构

描述: 仅包含编码器部分,没有解码器。

应用: 通常用于理解任务 ,如文本分类和情感分析。

代表模型: BERT(Bidirectional Encoder Representations from Transformers)

  1. Encoder-Decoder 架构

描述: 同时包含编码器和解码器部分。

应用: 通常用于序列到序列(seq2seq)任务 ,如机器翻译和文本摘要。

代表模型: Transformer、T5

相关推荐
kebijuelun几秒前
ERNIE 5.0:统一自回归多模态与弹性训练
人工智能·算法·语言模型·transformer
Network_Engineer2 分钟前
从零手写LSTM:从门控原理到PyTorch源码级实现
人工智能·pytorch·lstm
芝士爱知识a6 分钟前
AlphaGBM 深度解析:下一代基于 AI 与蒙特卡洛的智能期权分析平台
数据结构·人工智能·python·股票·alphagbm·ai 驱动的智能期权分析·期权
weixin_6686 分钟前
GitHub 2026年AI项目热度分析报告-AI分析-分享
人工智能·github
vlln8 分钟前
【论文速读】达尔文哥德尔机 (Darwin Gödel Machine): 自进化智能体的开放式演化
人工智能·深度学习·ai agent
Katecat9966311 分钟前
目标检测咖啡果实成熟度检测:RetinaNet-X101模型实现
人工智能·目标检测·目标跟踪
AAD5558889913 分钟前
基于Mask_RCNN的猫科动物目标检测识别模型实现与分析
人工智能·目标检测·计算机视觉
Katecat9966317 分钟前
基于YOLOv8和MAFPN的骆驼目标检测系统实现
人工智能·yolo·目标检测
合力亿捷-小亿20 分钟前
2026年AI语音机器人测评推荐:复杂噪声环境下语义识别准确率对比分析
人工智能·机器人
子夜江寒20 分钟前
基于 LSTM 的中文情感分类项目解析
人工智能·分类·lstm